本工具为复旦大学计算机学院机器人研究实验室开发的基于深度学习的中文自然语言处理工具FudanDNN-NLP2.0,该工具可用于中文分词、自定义词汇、文本规范化、命名识别、词性标注、语义分析,用户可以根据需要重新训练或者精调模型。
深度学习方法的优点在于不需要预先根据任务进行特征选择(特征工程),系统所需参数较少(节省内存开销),并且解码速度(实际使用)远远快于其它相似性能的系统。
2023/5/30 14:42:47 58.86MB 深度学习
1
由于竞赛需要用到结巴分词,所以写了一个对于结巴分词、词性标注以及停用词过滤的python法度圭表标准。
2023/4/7 20:01:23 7.15MB python jieba
1
bamboo是一个中文言语处理系统。
目前包括中文分词和词性标注部分。
bamboo提供了C,PHP,PostgreSQL的编程接口。
2022/12/13 11:18:36 115KB 全文检索 中文分词
1
Spacy是自然言语处理需要使用的一个工具包,加载模型后就可以做分词,词性标注等任务。
当你执行这条命令python-mspacydownloaden。
但是没有网的时候,可能这个包有用。
spaCy>=2.0.0a18
2019/7/16 16:07:15 115.25MB spacy
1
人民日报标注语料库(版本1.0,下面简称PFR语料库)是在得到人民日报社旧事信息中心许可的条件下,以1998年人民日报语料为对象,由北京大学计算语言学研究所和富士通研究开发中心有限公司共同制作的标注语料库。
该语料库对600多万字节的中文文章进行了分词及词性标注,其被作为原始数据应用于大量的研究和论文中。
2015/6/14 16:50:45 10.18MB 中文语料 标注语料 自然语言处理
1
英文分词语料库,共有198796行,每个单词都有词性标注,对句话的结束都有句号,便于处理。
覆盖大部分主盛行业的语料。
例如:Newsweek/NNP,/,trying/VBGto/TOkeep/VBpace/NNwith/INrival/JJTime/NNPmagazine/NN,/,announced/VBDnew/JJadvertising/NNrates/NNSfor/IN1990/CDand/CCsaid/VBDit/PRPwill/MDintroduce/VBa/DTnew/JJincentive/NNplan/NNfor/INadvertisers/NNS./.
2019/3/16 22:18:40 1.65MB 语料库 词性标注 英文 nlp
1
ChineseTreebank8.0LDC中文句树库(LDC2013T21),已标注句子的各个词语词性、句中成分、语义信息,可用于自然言语处理的句法分析或词性标注等任务。
2022/9/3 17:10:50 23.39MB nlp 自然语言处理 语料库 句树
1
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡