包括4款分词工具的最新词库:1、IK分词:27万词2、jieba分词:40万词3、mmseg分词:15万词4、word分词:64万词
2024/1/13 21:47:06 4.77MB 分词 中文 中文分词 word
1
本报告包括详尽完整的文本分类处理过程,包括语料库的处理、jieba分词、停用词无关词处理、词袋模型的构建(CHI值检验用于特征筛选、tfidf作为特征向量值)。
并用自编朴素贝叶斯以及sklearn包中的SVM进行了文本效果的检测,通过混淆矩阵和roc曲线展现了实现效果。
实验报告写的很详细,不懂的地方可以看报告以及看博客中的部分细节讲解。
2023/7/15 21:32:55 4.05MB 数据挖掘 文本分类
1
中文自动文摘,基于jieba分词,全Java代码。
给定文本输入自定义长度的文摘。
1
该资源主要参考我的博客:word2vec词向量训练及中文文本相似度计算http://blog.csdn.net/eastmount/article/details/50637476其中包括C语言的Word2vec源代码(从官网下载),自定义爬取的三大百科(百度百科、互动百科、维基百科)中文语料,涉及到国家、景区、动物和人物。
同时包括60M的腾讯新闻语料,是一个txt,每行相当于一个新闻。
国家包括了Python的Jieba分词代码,详见博客。
免费资源希望对你有所协助~
2023/1/16 9:44:47 142.09MB word2vec 源码 中文预料 词向量
1
jieba分词器所用的字典,包含词频以及词性,可自行调整频次等属性。
(仅做学习交换用,禁止商用)
2020/8/26 7:33:57 4.84MB NLP 自然语言处理 人工智能 词性字典
1
Java使用结巴分词时,必须使用的jar包。
使用于分词器
2018/6/22 17:24:39 2.09MB 资源包
1
利用jieba分词进行文本的处理这里面是jieba分词所需求的词典和停用词
2020/3/3 21:28:39 2.9MB jieba
1
jieba分词,连接数据库,分析数据库中的文本,并提取时间、地点、目标,整个完好流程/
1
使用Python,对爬取微博的评论,进行jieba分词,统计词频,修正路径即可。
2015/4/27 23:42:27 835B jieba 分词 微博评论
1
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡