依赖jdk8+版本。
Neo4j的特点:1、SQL就像简单的查询语言Neo4jCQL;
2、它遵循属性图数据模型;
3、它通过使用ApacheLucence支持索引4、它支持UNIQUE约束5、它它包含一个用于执行CQL命令的UI:Neo4j数据浏览器6、它支持完整的ACID(原子性,一致性,隔离性和持久性)规则7、它采用原生图形库与本地GPE(图形处理引擎)8、它支持查询的数据导出到JSON和XLS格式9、它提供了RESTAPI,可以被任何编程语言(如Java,Spring,Scala等)访问10、它提供了可以通过任何UIMVC框架(如NodeJS)访问的Java脚本11、它支持两种JavaAPI:CypherAPI和NativeJavaAPI来开发Java应用程序
2023/11/4 22:26:16 86.7MB 图形数据库
1
编译好的能在cdh6.3.2下安装的flink1.12的parcel包,详细可以使用。
不需要在编译。
2023/10/25 20:13:41 309.78MB flink1.12
1
ApacheSpark是一个围绕速度、易用性和复杂分析构建的大数据处理框架。
最初在2009年由加州大学伯克利分校的AMPLab开发,并于2010年成为Apache的开源项目之一。
与Hadoop和Storm等其他大数据和MapReduce技术相比,Spark有如下优势。
首先,Spark为我们提供了一个全面、统一的框架用于管理各种有着不同性质(文本数据、图表数据等)的数据集和数据源(批量数据或实时的流数据)的大数据处理的需求。
Spark可以将Hadoop集群中的应用在内存中的运行速度提升100倍,甚至能够将应用在磁盘上的运行速度提升10倍。
Spark让开发者可以快速的用Java、Scala或Pyt
2023/10/12 10:12:26 200KB 用ApacheSpark进行大数据处理
1
scala-2.13.4.msi
2023/9/20 10:37:54 128.68MB Scala Windows scala2.13
1
scala在ubuntu的安装包
2023/9/13 22:30:16 27.35MB ubuntu scala
1
基于CDH6.3.2+scala2.12编译的flink源码包,可以用来制作parcels,阿里云集群亲测可以使用。
2023/9/7 12:21:55 289.97MB flink 源码编译
1
39天视频资源,网上买的,自己在学,之前买的没课件和安装包,这一份都有,已经学到hbase了,各种搭建资源根据视频来都能跑通,很不错。
2023/8/14 8:20:44 137B hadoop hbase storm spark
1
Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。
本版本为当前最新版本。
2023/8/11 14:37:54 62.66MB kafka
1
01:JavaSE基础02:SpringMVCMybatis汽配城03:Linux基础进阶(开发人员必备)04:HadoopHiveHbaseFlumeSqoop05:ElasticSearch06:Spark安装部署到高级07:Scala基础到高级08:共享单车项目09:实训实战10:Ambari+HDP搭建
2023/7/7 3:43:02 97B 大数据视频教 大数据实战
1
flink安装文件scala2.12
2023/7/6 1:35:39 234.95MB flink 1.9.1 scala 2.12
1
共 74 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡