目录软件下载2安装虚拟机管理器2新建虚拟机,安装Ubuntu3锐捷校园认证下虚拟机Ubuntu的联网设置11熟悉Ubuntu系统13安装SSH、配置SSH无密码登陆20安装Java环境22安装Hadoop24Hadoop伪分布式配置25启动Hadoop26运行Hadoop伪分布式实例30启动YARN35附加教程:配置PATH环境变量37使用Eclipse编译运行MapReduce程序(Hadoop-Eclipse-Plugin,建议)38使用Eclipse打包自己的MapReduce程序51不用Hadoop-Eclipse-Plugin编写MapReduce程序54Hadoop集群安装配置教程56HBase安装56HBase伪分布式配置57HBaseShell编程实践60HBaseJAVAAPI编程实践64安装MySQL68Hive安装70Redis安装和使用74MongoDB安装和使用83Neo4j安装和使用96安装Spark103使用SparkShell编写代码104Scala独立应用编程106Java独立应用编程109使用Eclipse编写Spark应用程序(scala+sbt)112使用Eclipse编写Spark应用程序(scala)(建议)121使用Eclipse编写Spark应用程序(java+maven)123使用Eclipse编写Spark应用程序(java)128Storm安装和使用130使用Eclipse编写Storm程序(maven)134Kafka安装142Flume安装151Sqoop安装159Hama安装165使用Eclipse编写Hama应用程序168参考文献:174
2024/9/27 1:24:07 17.37MB hadoop spark storm hbase
1
Cloudera和英特尔公司的工程师们正在通力合作,旨在使Sparkshuffle阶段具有更高的可扩展性和稳定性。
本文对相关方法的设计进行了详细描述。
区别常见的Embarrassingly Parallel系统,类似MapReduce和Apache Spark(Apache Hadoop的下一代数据处理引擎)这样的计算引擎主要区别在于对“all-to-all” 操作的支持上。
和许多分布式引擎一样,MapReduce和Spark的操作通常针对的是被分片数据集的子分片,很多操作每次只处理单个数据节点,同时这些操作所涉及到的数据往往都只存在于这个数据片内。
all-to-all操作必须将数据集看作一个
2024/9/25 10:14:06 326KB 双倍提升ApacheSpark排序性能
1
本文来自于linkedkeeper.com,本文主要介绍了一下kafka的基本概念,并结合一些实验帮助理解kafka中的一些难点,如多个consumer的容错性机制,offset管理。
为了满足日益增长的业务变化,京东的京麦团队在京东大数据平台的基础上,采用了Hadoop等热门的开源大数据计算引擎,打造了一款为京东运营和产品提供决策性的数据类产品-北斗平台。
大数据是不能用传统的计算技术处理的大型数据集的集合。
它不是一个单一的技术或工具,而是涉及的业务和技术的许多领域。
目前主流的三大分布式计算系统分别为:Hadoop、Spark和Strom:Hadoop当前大数据管理标准之一,运用在当前很多商业应
1
intellij上的scala插件,intellij上本地开发Scala程序或者是spark程序用到的插件,非常的实用
2024/8/16 15:08:26 53.78MB intellij Scala spark
1
movie_recommender_pyspark:正在使用正在使用来自Spark的MLlib的电影镜头100k的电影重新提交系统。
2024/7/14 3:09:37 4.72MB JupyterNotebook
1
基于spark的电影推荐系统数据集
2024/7/3 13:32:09 5.66MB spark 协同过滤 推荐系统
1
5机器学习与火花ML1.介绍Spark.MLALS(交替最小二乘)。
1ºImportamostodaslalibreríasyademásestanuevafrompyspark.ml.recommendationimportALS2ºCreamosfunciónparacargarlosdatos,ylasesiondesparkdefloadMovieNames():movieNames={}#CHANGETHISTOTHEPATHTOYOURu.ITEMFILE:withcodecs.open("./data/ml-100k/u.item","r",encoding='ISO-8859-1',errors='ignore')asf:
2024/6/30 7:49:08 988KB Python
1
spark-assembly-1.6.1-hadoop2.6.0.jar,欢迎下载,,,,,,,,,,,,,,,,,,,,
2024/6/28 9:07:53 179MB spark-assemb
1
spark
2024/6/8 5:03:14 211.42MB spark
1
根据图识,项目将分为三个部分。
整个项目基本思路是如何通过爬虫爬取大量数据放到Hbase,然后通过ETL工具初步转化筛选将数据存到mongodb,抽取mongodb的数据进行清洗处理算出模型放到hdfs。
后续进来数据通过模型运算出数据的类型。
项目系统主要包括前端+后端+机器学习,前端采用ReactNative,Native,后端采用Dubbo+Spring+java,机器学习采用Spark进行实现,本项目机器学习-spark代码运行在mesos上。
2024/6/3 3:08:56 106B Spark 机器学习 实战
1
共 164 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡