配合eclipse3.7.2(eclipse-jee-indigo-SR2-linux-gtk-x86_64.tar.gz),hadoop2.7.1使用的插件
2024/6/15 5:11:03 32.16MB hadoop2.7.1 linux eclipse
1
windows下crf++的python配置需要的文件: 运行环境:vs2013,python2.7.1332位,win8.164位 包含文件 crfpp.h crfpp.lib pthread.lib libcrfpp.dll 这几个应该就够了,少的话给我留言
276KB crf++
1
wps最新版exe安装包
2024/6/3 11:39:42 326.22MB exe
1







hadoop-eclipse-plugin-2.7.1.jar
2024/6/1 20:14:36 32.15MB hadoop eclip
1
hadoop-2.7.1.tar.gz做大数据处理,分布式计算的,安装在linux服务器上。
2024/5/7 1:03:46 282B hadoop
1
python-2.7.18-64.rar
2024/4/1 22:14:46 19.06MB python
1
第一章整体介绍 21.1什么是TableAPI和FlinkSQL 21.2需要引入的依赖 21.3两种planner(old&blink)的区别 4第二章API调用 52.1基本程序结构 52.2创建表环境 52.3在Catalog中注册表 72.3.1表(Table)的概念 72.3.2连接到文件系统(Csv格式) 72.3.3连接到Kafka 82.4表的查询 92.4.1TableAPI的调用 92.4.2SQL查询 102.5将DataStream转换成表 112.5.1代码表达 112.5.2数据类型与Tableschema的对应 122.6.创建临时视图(TemporaryView) 122.7.输出表 142.7.1输出到文件 142.7.2更新模式(UpdateMode) 152.7.3输出到Kafka 162.7.4输出到ElasticSearch 162.7.5输出到MySql 172.8将表转换成DataStream 182.9Query的解释和执行 201.优化查询计划 202.解释成DataStream或者DataSet程序 20第三章流处理中的特殊概念 203.1流处理和关系代数(表,及SQL)的区别 213.2动态表(DynamicTables) 213.3流式持续查询的过程 213.3.1将流转换成表(Table) 223.3.2持续查询(ContinuousQuery) 233.3.3将动态表转换成流 233.4时间特性 253.4.1处理时间(ProcessingTime) 253.4.2事件时间(EventTime) 27第四章窗口(Windows) 304.1分组窗口(GroupWindows) 304.1.1滚动窗口 314.1.2滑动窗口 324.1.3会话窗口 324.2OverWindows 331)无界的overwindow 332)有界的overwindow 344.3SQL中窗口的定义 344.3.1GroupWindows 344.3.2OverWindows 354.4代码练习(以分组滚动窗口为例) 36第五章函数(Functions) 385.1系统内置函数 385.2UDF 405.2.1注册用户自定义函数UDF 405.2.2标量函数(ScalarFunctions) 405.2.3表函数(TableFunctions) 425.2.4聚合函数(AggregateFunctions) 455.2.5表聚合函数(TableAggregateFunctions) 47
2024/2/21 21:43:55 1.29MB flinksql
1
windows安装spark2软件包包括:1.spark-2.3.0-bin-hadoop2.7.tgzspark的压缩包2.scala-2.11.8.zipscala的压缩包3.hadoop-2.7.1.tar.gz基础hadoop包4.apache-maven-3.6.3-bin.zipmaven压缩包5.winutils-master.zip解决windows下spark的问题(可以不用)
2024/2/14 13:20:25 459.62MB spark hadoop maven scala
1
hadoop2.7.1+hbase2.1.4+zookeeper3.6.2集合
2024/2/8 13:14:16 355.34MB hadoop hbase zookeeper
1
针对问题:hadoop2.7.1下运行org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z解决办法:1:解压该文件2:将hadoop.dll复制到C:\Window\System32下3:添加环境变量HADOOP_HOME,指向hadoop目录4:将%HADOOP_HOME%\bin加入到path里面(或在代码中设置系统属性代码System.setProperty("hadoop.home.dir",%解压zip的根目录%)5:重启myeclipse或者eclipse
2024/1/28 4:35:20 763KB hadoop hadoop2.7.1 hadoop.dll winutils.exe
1
共 52 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡