IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。
此包适配最新版本solr7.x
2024/4/13 18:45:03 9.18MB IKanalyzer Solr
1
人民日报1998年1月份的语料库,加入了词性标注,北京大学开发,中文分词统计的好资料
2024/3/11 1:22:30 2.12MB 语料库 人民日报 中文分词 语义
1
基于字的用感知机实现的中文分词系统。
完全训练后对微软的测试集精度可以达到96%多。
我上传的版本是完整的代码(训练和分词),大家自己用附带的微软训练数据训练就可以了,只有一个文件。
代码总的来说写的还是很清楚的,方便自己也方便别人阅读。
欢迎大家共讨论,xiatian@ict.ac.cn。
2024/3/7 22:35:58 4.92MB python 分词 感知机
1
在使用jiba分词的情况下,使用这个词典有助于提高你的分词准确度,因为这个分词词典包含了众多领域词汇,这些词汇出自某dog的几十个细胞词库。
已使用转换器转换成txt,欢迎下载。
2024/2/24 8:01:03 7.29MB 分词词典 中文分词 jieba gensim
1
参考网络资源使用IKAnalyzer分词组件,实现了纯Java语言、MapReduce模式及Spark框架三种方式对唐诗宋词等国学经典进行中文分词统计排序的功能,你可以轻松发现唐诗宋词中最常用的词是那几个。
2024/2/20 1:54:30 379KB Spark Java MapReduce IKAnalyzer
1
使用R语言中的jiebaR包,对中文文本进行分词,求词频,做词云图并进行LDA主题建模。
2024/1/23 12:15:36 14KB jiebaR,LDA
1
NLPIR(ICTCLAS2013)是由张华平博士发布的中文分词系统,可用多种语言进行二次开发,该资源是用C#语言在VS2010环境下在http://www.nlpir.org/提供的原示例基础上进行改进后的示例程序。
2024/1/22 20:46:10 3.85MB NLPIR ICTCLS2013 分词 C#
1
包括4款分词工具的最新词库:1、IK分词:27万词2、jieba分词:40万词3、mmseg分词:15万词4、word分词:64万词
2024/1/13 21:47:06 4.77MB 分词 中文 中文分词 word
1
机器学习sklearn中文分词学习记录
2023/12/12 12:38:43 800B 学习记录
1
网上流传的人民日报1998年1月份的语料库,北京大学开发;
处理成了crf分词训练语料的格式;
2023/12/12 10:08:19 2.32MB 语料库 中文分词 人民日报 crf
1
共 70 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡