平台部分主要是hadoop分布式系统,基于该系统融合了组件Spark,Hbase,Hive,Sqoop,Mahout等。
继而进行相关的数据分析该项目主要分为以下几部分:1:数据采集主要是基于豆瓣电影的数据,进行分析,所以首先要爬取相关的电影数据,对应的源代码在DouBan_Spider目录下,主要是采用Python+BeautifulSoup+urllib进行数据采集2:ETL预处理3:数据分析4:可视化代码封装完好,适用于对作影视感情分析,影评分析,电影类型分析,推荐系统的建立
2023/9/29 13:13:36 10.05MB 爬虫 数据处理 数据分析 可视化
1
豆瓣电影名称类别评分时长评论年份爬取主函数
2023/6/29 0:28:36 14KB 豆瓣爬取
1
豆瓣,电影,评分前250
2023/6/14 11:39:39 23KB 豆瓣 电影
1
Python关于豆瓣电影信息的爬虫,抓起1w条电影数据只要一分钟左右,
2023/6/9 11:58:11 2KB Python Movies MongoDB
1
由豆瓣电影为案例星星样式,字体大小,颜色都由动态传入,动态传入分数,计算出几颗亮星和半星及灰星星
2023/5/17 10:35:25 36KB wx
1
注释详细,协助短时间消化学会使用python3爬虫,了解并学习使用requests、lxml、xlwt库。
实列中以爬豆瓣电影为例,并下载到表格中。
2018/7/19 12:58:17 3KB python、爬虫
1
本项目是基于MUI的一个实际项目,调用知乎新闻和豆瓣电影API,可以阅读新闻、查看目前在映电影信息和影评,还可以在线播放预告片。
同时附上整个项目的开发详细步骤,希望对大家学习WEBAPP开发有协助
2021/10/15 19:18:18 6.86MB MUI android iOS WEBAPP
1
通过python爬去豆瓣网的数据,用大数据基础对数据进行清洗,然后对清洗的数据可视化,更直观的展现出来
2021/6/21 3:30:52 367KB 数据爬取 数据分析  数据可视化
1
经过上一篇教程我们已经大致了解了Scrapy的基本情况,并写了一个简单的小demo。
这次我会以爬取豆瓣电影TOP250为例进一步为大家讲解一个完整爬虫的流程。
工具和环境言语:python2.7IDE:Pycharm浏览器:Chrome爬虫框架:Scrapy1.2.1https://zhuanlan.zhihu.com/p/24769534?refer=woodenrobot
2016/5/11 9:27:53 6KB Scrapy
1
豆瓣电影数据,包含电影称号、评分、评价人数、短评数量、影评、数量类型、导演、编剧、主演、上映日期等等....
2021/5/21 3:29:51 36.02MB 豆瓣 电影
1
共 34 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡