中文分词;文本分类;信息抽取;语义理解;问答系统;自然语言对话系统
2025/2/21 17:48:20 3.81MB NLP
1
基于词典的最大正向/方向匹配算法的JAVA实现,附带Demo窗体和人民日报语料库。
2025/1/30 11:02:08 254KB 分词 Java
1
汇总的中文分词词库,分为两个目录:1、中文分词词库汇总。
包含10个词库,文件名字表示里面词的数量(单位是千),如150.txt,表示包含15万词。
2、主流分词工具的词库。
包含word/jieba/mmseg/IK分词工具的最近词库。
注意:分词时,不一定是词库中的词越多,效果越好。
2025/1/28 7:47:49 10.34MB 中文分词 分词 词库 分词词库
1
歌集市场졸업작품어플리케이션상품이등록되어야이등록되어야리를前处理删除特殊字符好吧矢量化器(计数,TF-IDF)分词器(keras)删除停用词模型线性支持向量机朴素贝叶斯LSTM有线电视新闻网CNN-LSTM服务器阿帕奇DjangoWeb框架CentOS的应用AndroidStudio
2025/1/26 4:58:04 35KB Java
1
结巴分词,jieba分词,统计分词出现的频率,按频率统计分词出现的频率。
分词器功能,建议参考elasticsearch的分词器,此分词器为入门级的分词拆分和分词频率统计
2025/1/24 12:33:32 6.44MB jieba分词 java 分词统计 结巴
1
给定微博id和爬取评论数量,爬取对应微博的评论,便于下一步的分词和词频统计
2025/1/21 18:20:14 3KB 爬虫 代码 微博评论
1
这是一个完整的代码,里面的eclipse整合了elasticsearch和hdfs大数据平台,可以用于搜索,IK分词等功能。
2025/1/19 17:15:17 38.64MB elasticsearch ES和IK分词 eclipse和es es和hdfs
1
原文件为zhwiki-latest-pages-articles.xml.bz2,大小为1.7G,最新时间为19年7月下载,转为txt文本,繁转简,分词,gensim训练后的model文件
2025/1/9 3:53:47 15.28MB Word2Vec 训练模型文件 zhwiki-latest-pa
1
本资源是基于Android的智能聊天机器人的源代码。
它的运行逻辑就是将用户输入的文字,调用复旦nlp算法分词后,得到主谓宾三个关键词,然后分别按照主谓宾的的顺序与数据库(SQLite)中的三个表匹配,匹配得到一个id,然后根据这个id到语料表中找到对应的回答,反馈给用户。
它有学习功能,即用户可教它说话,其原理也使通过分词,将分词结果存入到主谓宾三个表中。
数据库在assets文件夹中。
若有其它疑问可与我私信。
2024/12/15 7:41:42 4.12MB Android SQLite数据库 智能聊天
1
CTB6汉语分词语料库,可以拿来做分词任务。
















































































2024/12/10 7:05:37 6.3MB 自然语言处理 分词 语料库
1
共 203 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡