分词_频数_词性@35万_结巴语料,分词_频数_词性@35万_结巴语料
2023/3/18 11:01:03 64B nlp 语料 频数 词性
1
从bbc上爬取的较常用的英文单词数据库(13.5万单词量),内含单词中文翻译、扩大、词性、音标、读音链接、出现次数。
(金山词霸API翻译)
2016/4/22 8:32:25 11.45MB 单词 数据库 英文 mysql
1
jieba分词器所用的字典,包含词频以及词性,可自行调整频次等属性。
(仅做学习交换用,禁止商用)
2020/8/26 7:33:57 4.84MB NLP 自然语言处理 人工智能 词性字典
1
bamboo是一个中文言语处理系统。
目前包括中文分词和词性标注部分。
bamboo提供了C,PHP,PostgreSQL的编程接口。
2022/12/13 11:18:36 115KB 全文检索 中文分词
1
Spacy是自然言语处理需要使用的一个工具包,加载模型后就可以做分词,词性标注等任务。
当你执行这条命令python-mspacydownloaden。
但是没有网的时候,可能这个包有用。
spaCy>=2.0.0a18
2019/7/16 16:07:15 115.25MB spacy
1
人民日报标注语料库(版本1.0,下面简称PFR语料库)是在得到人民日报社旧事信息中心许可的条件下,以1998年人民日报语料为对象,由北京大学计算语言学研究所和富士通研究开发中心有限公司共同制作的标注语料库。
该语料库对600多万字节的中文文章进行了分词及词性标注,其被作为原始数据应用于大量的研究和论文中。
2015/6/14 16:50:45 10.18MB 中文语料 标注语料 自然语言处理
1
该文提出了一种新的基于小世界网络特性的关键词提取算法.首先,利用K最邻近耦合图构成方式,将文档表示成为词语网络.引入词语聚类系数变化量和平均最短路径变化量来度量词语的重要性,选择重要性大的词语组成候选关键词集.利用侯选关键词集词语位置关系和汉语词性搭配关系,提取出复合关键词.实验结果表明该方法是可行和无效的,获取复合关键词比一般关键词所表达的含义更便于人们对文本的理解.
2017/1/11 12:39:27 268KB 计算机应用 ; 中文信息处理 ;
1
该文提出了一种新的基于小世界网络特性的关键词提取算法.首先,利用K最邻近耦合图构成方式,将文档表示成为词语网络.引入词语聚类系数变化量和平均最短路径变化量来度量词语的重要性,选择重要性大的词语组成候选关键词集.利用侯选关键词集词语位置关系和汉语词性搭配关系,提取出复合关键词.实验结果表明该方法是可行和无效的,获取复合关键词比一般关键词所表达的含义更便于人们对文本的理解.
2017/1/11 12:39:27 268KB 计算机应用 ; 中文信息处理 ;
1
1998年1月-6月人民日报语料库,已做词性标记,适用于自然言语处理序列标注等任务,如命名实体识别等,里面包含6个月份
2021/6/25 21:26:05 11.5MB 文本分类语料
1
1998年1月-6月人民日报语料库,已做词性标记,适用于自然言语处理序列标注等任务,如命名实体识别等,里面包含6个月份
2016/11/14 22:52:26 11.5MB 文本分类语料
1
共 38 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡