非常好用solr中文分词器(含使用手册),Solr4.x此版本适用于高版本Solr4.x,IK分词器,智能分析,与细粒度分析配置
2024/6/7 5:25:49 2.05MB 中文分词器 solr
1
小黄鸡语料库,包含分词以及未分词,可以用于自然语言处理。
2024/5/24 16:51:45 12.25MB 语料库 小黄鸡
1
中文分词词库整理,Ik分词器词库,中文分词词库整理,Ik分词器词库
2024/5/20 8:31:37 7.12MB IKAnalizer ElasticSearc
1
自己用来训练word2vec的,已提取文本,做了分词处理,过滤了大部分的特殊字符。
共包含3273626个段落的文本(一个段落包含了多个语句)。
处理后的语料有1.1G,由于文件较大,提供百度网盘下载地址。
2024/5/19 17:09:13 650B 维基 中文语料 word2vec
1
中文自动分词1.使用任意分词方法实现汉语自动分词;
2.给出至少1000个句子的分词结果(以附件形式);
3.计算出分词结果的正确率,并给出计算依据;
4.用实例说明所用分词方法分别对“交叉歧义”和“组合歧义”的处理能力;
5.提交实验报告,给出详细实验过程和结果;
提交源代码和可执行程序。
1
汉语语料库,包含9000多个文本,涵盖新闻、论文、散文、小说等多种类型的文本,经过了分词和词性标注的精加工。
2024/4/27 17:48:12 31.68MB 语料库
1
经过对搜索引擎的研究同时与Lucene自身的特性相结合,将本次设计所需要实现的功能阐述如下:Ø支持桌面文件搜索,格式包括txt、doc、xls和ppt;Ø支持分词查询Ø支持全文搜索Ø能够高亮显示搜索关键字Ø显示查询所用的时间Ø显示搜索历史、过滤关键字分词查询与全文搜索这两项功能,我们都可以利用Lucene本身自带的库加上相关算法就可以完成设计了,为了使得关键字的高亮度这一问题得到解决,显然,我们需要利用Highlighter的辅助,通过数据库持久化保存数据。
搜索引擎是基于Lucene的,所以需要利用Lucene的一些jar包,这样才能借助Lucene完成我们自己想要的搜索功能,并且实现分词
1
IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。
此包适配最新版本solr7.x
2024/4/13 18:45:03 9.18MB IKanalyzer Solr
1
人民日报1998年1月份的语料库,加入了词性标注,北京大学开发,中文分词统计的好资料
2024/3/11 1:22:30 2.12MB 语料库 人民日报 中文分词 语义
1
处理中文地址的分词和匹配采用混合分词算法进行中文地址分词在中文地址分词基础上采用DoubleLevenshetin算法进行中文地址相似度进行地址匹配
2024/3/10 11:23:57 18.08MB 中文地址 地址分词 地址匹配 Levenshtein
1
共 172 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡