著名的SighanBakeoff语料。
包含了训练集、测试集及测试集的(黄金)标准切分。
2024/8/28 2:50:43 2.33MB 命名实体识别 数据集
1
自己用来训练word2vec的,已提取文本,做了分词处理,过滤了大部分的特殊字符。
共包含3273626个段落的文本(一个段落包含了多个语句)。
处理后的语料有1.1G,由于文件较大,提供百度网盘下载地址。
2024/5/19 17:09:13 650B 维基 中文语料 word2vec
1
复旦大学中文语料分类数据3个子文档一共有19666个文档是很好的分类语料库
2024/3/21 19:06:57 105.02MB wenbenfenlei
1
中文维基百科语料库,将其转换为文本文件后,进行繁体字转换为简体字,字符集转换,分词,然后训练得到模型以及向量。
由于文件上传的大小限制是60MB,而训练后的所有文件大小有1G以上,所以这里只提供了下载链接,地址在网盘中。
使用python中的gensim包进行训练得到的,运行时间较长,纯粹的维基百科中文语料训练后的结果,拿去可以直接使用。
2023/7/28 17:38:49 234B wiki中文
1
自己用来熬炼word2vec的,已经提取文本,做了分词处置,过滤了大部份的特殊字符。
共搜罗3273626个段落的文本(一个段落搜罗了多个语句)。
处置后的语料有1.1G,由于文件较大,提供baidu网盘下载地址。
2023/4/9 3:05:07 300B 维基 中文语料 word2vec
1
该资源主要参考我的博客:word2vec词向量训练及中文文本相似度计算http://blog.csdn.net/eastmount/article/details/50637476其中包括C语言的Word2vec源代码(从官网下载),自定义爬取的三大百科(百度百科、互动百科、维基百科)中文语料,涉及到国家、景区、动物和人物。
同时包括60M的腾讯新闻语料,是一个txt,每行相当于一个新闻。
国家包括了Python的Jieba分词代码,详见博客。
免费资源希望对你有所协助~
2023/1/16 9:44:47 142.09MB word2vec 源码 中文预料 词向量
1
利用wiki中文语料训练时,需用到opencc来简繁体汉子转为简体汉字,pip安装opencc时需要distribute_setup.py,将该文件放到python的Lib文件夹下。
一些人说可以处理,我试了下没处理。
建议大家使用下opencc.exe(内含)。
2021/9/16 23:47:37 1.1MB open-cc
1
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡