2016年,Hadoop迎来了本人十周岁生日。
过去的十年,Hadoop雄霸武林盟主之位,号令天下,引领大数据技术生态不断发展壮大,一时间百家争鸣,百花齐放。
然而,兄弟多了不好管,为了抢占企业级市场,各家都迭代出本人的一套访问控制体系,不管是老牌系统(比如HDFS、HBase),还是生态新贵(比如Kafka、Alluxio),ACL(AccessControlList)支持都是Roadmap里被关注最高的issue之一。
历史证明跳出混沌状态的最好方式就是——出台标准。
于是,Hadoop两大厂Cloudera和Hortonworks先后发起标准化运动,分别开源了Sentry和Ranger,在cen
1
ApacheSpark是专为大规模数据处理而设计的快速通用的计算引擎。
Spark是UCBerkeleyAMPlab(加州大学伯克利分校的AMP实验室)所开源的类HadoopMapReduce的通用并行框架,Spark,拥有HadoopMapReduce所具有的优点;
但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因而Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。
2016/7/12 6:50:02 219.33MB spark hadoop
1
本文来自于cnblogs,文章主要引见了什么是HDFS,命令行接口,Java接口,数据流,通过Flume和Sqoop导入数据,通过distcp并行复制等相关。
学习完Hadoop权威指南有一段时间了,现在再回顾和总结一下HDFS的知识点。
HDFS是什么:HDFS即Hadoop分布式文件系统(HadoopDistributedFilesystem),以流式数据访问模式来存储超大文件,运行于商用硬件集群上,是管理网络中跨多台计算机存储的文件系统。
HDFS不适合用在:要求低时间延迟数据访问的应用,存储大量的小文件,多用户写入,任意修改文件。
HDFS数据块:HDFS上的文件被划分为块大小的多个分块,作为
2018/1/3 17:07:13 293KB HDFS知识点总结
1
下载为百度网盘链接1.Hadoop的源起与体系引见2.Hadoop的源起与体系引见3.Hadoop的源起与体系引见4.实施Hadoop集群5.实施Hadoop集群6.实施Hadoop集群7.分布式文件系统HDFS,大数据存储实战8.分布式文件系统HDFS,大数据存储实战9.分布式文件系统HDFS,大数据存储实战10.Map-Reduce体系架构11.Map-Reduce体系架构12.Map-Reduce体系架构13.Map-Reduce数据分析之一,API实战14.Map-Reduce数据分析之一,API实战15.Map-Reduce数据分析之一,API实战16.Map-Reduce数据分析之二,Hadoop流,应用案例17.Map-Reduce数据分析之二,Hadoop流,应用案例18.Map-Reduce数据分析之二,Hadoop流,应用案例19.Map-Reduce数据分析之二,Hadoop流,应用案例20.HBase体系架构与安装21.HBase体系架构与安装22.HBase体系架构与安装23.HBase体系架构与安装24.HBase数据分析与建模,实战案例剖析25.HBase数据分析与建模,实战案例剖析26.HBase数据分析与建模,实战案例剖析27.Hive体系架构安装与HiveQL,应用案例128.Hive体系架构安装与HiveQL,应用案例229.Pig安装与PigLatin语言,应用案例130.Pig安装与PigLatin语言,应用案例231.Pig安装与PigLatin语言,应用案例332.Pig安装与PigLatin语言,应用案例433.hadoop高级引见34.hadoop高级引见35.hadoop高级引见36.hadoop高级引见37.hadoop高级引见38.hadoop高级应用39.hadoop高级应用40.hadoop高级应用41.hadoop高级应用42.hadoop高级应用43.Hadoop集群安装44.HBASE分布式安装
2019/5/27 4:11:09 32B hadoop 视频
1
flume想要将数据输出到hdfs,必需要有hadoop相关jar包。
本资源是hadoop2.7.7版本
2016/5/24 15:47:16 7.94MB flume连接hadoop hadoop hdfs 大数据
1
Ranger和Atlas进行数据管理,对Yarn、HDFS、Hbase、Hive、Kafka的权限控制,最全的文档整理。
2021/5/20 14:16:54 21.44MB Ranger Atlas 元数据 数据质量
1
本书作者是国内较早接触Solr的技术专家之一,多年一直在Solr的研究、实践和布道的路上不遗余力、乐此不彼。
本书立足全球视野,综合Solr技术的发展和应用、从业人员的学习曲线,以及中英文资料的供给情况,给自己设定了一个极高的目标:力争在内容的全面性、系统性、深浅度和实战性上概括所有的同类书。
从完成的结果上来看,我们的目标接近完成,Solr的基础知识、核心技术、进阶知识和扩展知识悉数包括在内。
全书一共16章,分为上下两卷:上卷(第1~10章)全面、系统地讲解了Solr的基础知识和核心技术。
包括部署、配置、SolrCore、SolrDIH、全量导入、增量导入、索引、中文分词、查询组件、SolrFacet、高亮、查询建议,以及企业如何在真实的项目中使用Solr。
不仅讲解了基本概念和使用方法,而且还分析了各组件的内部工作机制。
下卷(第11~16章)细致、深入地讲解了Solr的高级知识和拓展知识。
高级知识部分包括:Solr的高级查询及其各种查询技巧,如函数查询、地理空间查询、Facet嵌套等;
SolrJ、SolrCloud、SpringDataSolr的使用详解和工作原理;
Solr的多种功能优化技巧,如索引的功能优化、缓存的功能优化、查询的功能优化、JVM和Web容器的优化,以及操作系统级别的优化。
拓展知识中首先讲解了Solr的一些比较生僻的知识点,如伪域、多语种索引支持、安全认证,以及Solr6.x中的SQL接口和Streaming表达式等;
然后讲解了Solr与MapReduce、HDFS、Hbase、Kafka、Flume、Storm、Spark等大数据技术的结合使用的集成方法。
2018/10/10 5:08:21 182.81MB solr
1
Hadoop(2.X版本)管理与开发的文档指南,讲述了hadoop的背景、环境、结构、安装配置和案例,以及引见了HDFS和MapReduce。
2021/9/11 14:35:33 4.34MB Hadoop 2
1
hadoopweb项目的改进版,新增ajax技术。
ajax主要是在浏览器中输入hdfs路径时的后台检查和在监控任务执行形态时使用ajax去和后台交互,获取job信息。
2015/8/4 11:40:27 28KB hadoop web ajax
1
实验1:Hadoop安装与配置管理 41.1【实验目的】 41.2【实验环境】 41.3【实验过程】 4Step1:基础设备. 5Step2:各服务器安装JDK 7Step3:各服务器的网络设置 8Step4:在namenode安装Hadoop 9Step5:修改Hadoop的配置文件 10Step6:SSH免密码登录 14Step7:启动/停止Hadoop集群 18Step8:Hadoop集群验证 21Step9:解决jps命令没有namenode或datanode 221.4【实验结果】 241.5【实验总结】 26实验2:HDFS实验 282.1【实验目的】 282.2【实验环境】 282.3【实验过程】 28Step1:启动Hadoop. 28Step2:学习HDFS基本命令 30Step3:HDFS实践 422.4【实验结果】 452.5【实验总结】 46实验3:VARN技术 483.1【实验目的】 483.2【实验环境】 483.3【实验过程】 48Step1:基础配置 48Step2:Distribu
2015/9/9 17:42:15 14.59MB hadoop
1
共 72 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡