用MapReduce实现KMeans算法,数据的读写都是在HDFS上进行的,在伪分布下运转没有问题。
文档中有具体说明。
2018/7/23 9:44:21 13KB hadoop kmeans
1
大型网站架构演化 大型网站软件系统的特点 大型网站架构演化发展历程 初始阶段 应用服务和数据服务分离 使用缓存改善网站功能 缓存类型 本地缓存 分布式缓存 缓存产品 redis 业界主流 memcached 解决问题 数据库访问 使用应用服务器集群改善网站的并发处理能力 问题:负载均衡情况下session状态的保持? 解决方案: 基于DNS的负载均衡 反向代理 ngix JK2 数据库的读写分离 问题:读库与写库的数据同步 解决方案:不同的数据库都有自己的数据库的主从复制功能 使用反向代理与CDN加速网站响应 反向代理产品 ngix 使用分布式文件系统和分布式数据库系统 使用no-sql和搜索引擎 站内搜索 lucene nutch 分词器 no-sql库 mongodb hadoop 业务拆分 webservice restful 分布式服务 大型网站架构演化的价值观 核心价值:随网站所需灵活应对 驱动力量:网站的业务发展 网站架构设计误区 一味追随大公司的解决方案 为技术而技术 企图用技术解决一切问题大型网站架构模式 架构模式 分层 分割 分布式 分布式应用和服务 分布式静态资源 分布式数据和存储 分布式计算 集群 缓存 CDN 反向代理 本地缓存 分布式缓存 异步 冗佘 冷备份 主从分离,实时同步实现热备份 灾备数据中心 自动化 发布过程自动化 ant maven. 自动化代码管理 svn cvs github 自动化测试 loadrunner hudson. 自动化安全测试 自动化部署 自动化报警 自动化失效转移 自动化失效恢复 自动化降级 自动化分配资源 安全 密码和手机校验码 数据库中的密码加密后存->不可ni->md5 加密 子主题1 验证码 防止机器登录 对于攻击网站的XSS攻击,SQL注入,进行编码转换 对垃圾信息,敏感信息进行过滤 对交易转账等重要操作根据交易模式和交易信息进行风险控制 Sina微博的应用大型网站架构要素 功能 可用性 伸缩性 扩展性 安全性瞬时响应:网站的高功能架构 网站的功能测试 不同的视角 用户的视角 开发人员的视角 运维人员的视角 功能测试指标 响应时间 并发数 吞吐量 功能测试方法 功能测试 负载测试 压力测试 稳定性测试 web前端功能优化 浏览器优化 减少http请求 使用浏览器缓存 启用压缩 css上,js下 减少cookie传输,静态资源使用独立域名访问 CDN加速 反向代理 应用服务器功能优化 分布式缓存 缓存的原理 合理使用缓存 频繁修改的数据 没有热点的访问 数据不一致和脏读 缓存可用性 缓存预热 缓存穿透 缓存架构 jbosscache为代表的需要更新同步的分布式级缓存 以memcached为代表的不互相通信的分布式缓存 异步操作 使用集群 代码优化 多线程 资源复用 单例 对象池 数据结构 垃圾回收 存储功能优化 固态硬盘 RAID与HDFS万无一失:网站的高可用性 高可性的度量与考核 度量 考核 高可用的网站架构 高可用的应用 高可用的服务 高可用的数据 CAP原理 数据备份 失效转移 高可用网站的软件质量保证 网站发布 自动化测试 预发布验证 代码控制 自动化发布 灰度发布 网站运行临控 临控数据采集 临控管理永无止境:网站的可伸缩性 网站架构的伸缩性设计 不同功能进行物理分离实现伸缩 单一功能通过集群规模实现伸缩 应用服务器集群的伸缩性设计 http重定向负载均衡 DNS域名解析负载均衡 反向代理负载均衡 ip负载均衡 数据链路层负载均衡 负载均衡算法 分布式缓存集群的伸缩性设计 mem
2021/7/2 17:55:03 1.02MB 网站架构
1
sqoop2javaAPI从oracle导数据到HDFS开发总结有了这个文档,会为你节省很多时间,一些我踩坑趟路的时间;
但是不代表你什么都不晓得的前提就能把demo运行起来。
建议操作顺序:sqoop官方环境搭建文档看一遍,然后搭建sqoop2环境,然后熟悉sqoop2-shell命令;
然后再做javaapi开发。
整个代码逻辑的调用顺序:sqoopclientjavaApi->sqoopserver->yarn->MRjob
2018/11/14 2:03:41 831KB oracle转HDFS
1
对于HDFS工作原理的部门简单引见。
2019/5/25 5:03:43 680KB HDFS
1
Hadoop,HBase,Hive,HDFS视频,共44集(完好全套)!!
2017/6/27 12:41:34 58B Hadoop HBase HDFS Hive
1
hdfs上内容读取到hbase,纯正的Mapreduce代码。
尝尝看,支持多线程
2021/8/25 10:25:55 29KB hbase
1
新尚硅谷大数据技术之Hadoop(入门),尚硅谷大数据技术之Hadoop(HDFS文件零碎).doc尚硅谷大数据技术之Hadoop(MapReduce).doc尚硅谷大数据技术之Hadoop.xmind等多个文件
2019/6/26 6:06:46 31.76MB Haddop
1
简历最好能覆盖以下三方面的项目经历:基础平台搭建与线上问题解决一方面,许多中小型企业,大数据这一块其实还处于刚刚起步阶段,对于平台搭建这一块是刚需;
另一方面,一线大厂对于线上基础组件,比方说hdfs与spark的补丁修复(能二次开发就更好了)比较感兴趣。
而这些,都可以以项目的方式写进去。
实时计算类项目一个稍微复杂点的实时类项目几乎可以覆盖大数据生态圈的所有核心技术点,具体可以参考本人前期写的一篇文章:征信画像项目实施文档摘要机器学习类项目个人认为,数据部门终极价值的落地需要靠机器学习。
仅仅搞传统BI与实时计算的话,对于大部分中小型企业而言,大数据团队没有多大的存在价值。
2018/2/6 15:10:15 166KB 简历模板
1
我们都知道Hadoop次要由HDFS和MapReduce两个核心部分组成。
其中最底部就是HDFS,它被用来存储Hadoop集群中所有存储节点上的文件。
hadoop的核心子项目——HDFS(分布式文件系统),下面将从HDFS的背景、基本概念开始,步步深入了解HDFS的设计目标、HDFS的基本结构以及HDFS的相关操作等核心知识!随着数据量越来越大,在一个操作系统管辖的范围内存不下了,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,迫切需要一种系统来管理多台机器上的文件,这就是分布式文件管理系统。
HDFS只是分布式文件管理系统中的一种。
HDFS(HadoopDistributedFi
2019/5/17 2:57:32 442KB HDFS核心技术详解
1
《HDFS——Hadoop分布式文件零碎深度实践》
2015/6/3 4:26:22 6.06MB PDF
1
共 74 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡