爬虫剧本项目源码-爬取简书个人文章
2023/2/11 4:43:02 323KB 简书 Python 爬虫脚本项目源码
1
利用mongodb、django、elasticsearch等搭建的小型搜索引擎。
数据由scrapy框架爬取存入mongodb中,具体运用方法请移步我的github:https://github.com/Weifanwong/search_engine.git
2023/2/10 16:36:30 281KB elasticsearc mongodb python django
1
通过爬虫,爬取5000章以上的网络小说。
通过爬取网站上的某一本小说,输出文件为url文件“URL列表.txt”以及小说内容文件。
基本实现了网络爬虫规定需求。
包括源代码和实验报告(实验背景、实验环境、实验设计(模型方法介绍+解题思路+流程图+源代码)、结果与功能分析、心得与体会)
2023/2/10 12:04:21 628KB 搜索引擎 网络爬虫
1
requests模块中经常使用到的headers和proxies,随机代理ip和请求头可以实现愈加高效的爬取操作。
文件中给出从网上收集到的代理,下方也给出了筛选可用代理的方法。
2023/2/8 17:52:27 7KB python爬虫
1
运用Python编写的爬取百度百科词条信息的Demo源代码,具体看博客:http://blog.csdn.net/tianmaxingkong_/article/details/52959784
2023/2/5 2:23:18 20KB Python 爬虫
1
资源类型比较丰富,能够获取到中国大陆各品种型的POI数据
2023/1/16 19:14:16 22.18MB poi
1
该资源主要参考我的博客:word2vec词向量训练及中文文本相似度计算http://blog.csdn.net/eastmount/article/details/50637476其中包括C语言的Word2vec源代码(从官网下载),自定义爬取的三大百科(百度百科、互动百科、维基百科)中文语料,涉及到国家、景区、动物和人物。
同时包括60M的腾讯新闻语料,是一个txt,每行相当于一个新闻。
国家包括了Python的Jieba分词代码,详见博客。
免费资源希望对你有所协助~
2023/1/16 9:44:47 142.09MB word2vec 源码 中文预料 词向量
1
2013年至2018年,以医患干系为关键词爬取的20000+微博数据,包括文本、链接、日期、转赞评、用户名等字段。
2023/1/13 19:10:31 17.35MB 医患关系 医疗文本 微博关键词
1
java爬取网页表格的例子(运转环境myeclipse)
2023/1/10 2:25:22 1.15MB java 爬取网页表格 例子
1
python爬取中庸词诗词保管数据库
2023/1/10 20:37:15 1.14MB python爬取中庸词诗词保存数
1
共 375 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡