本工具为复旦大学计算机学院机器人研究实验室开发的基于深度学习的中文自然语言处理工具FudanDNN-NLP2.0,该工具可用于中文分词、自定义词汇、文本规范化、命名识别、词性标注、语义分析,用户可以根据需要重新训练或者精调模型。
深度学习方法的优点在于不需要预先根据任务进行特征选择(特征工程),系统所需参数较少(节省内存开销),并且解码速度(实际使用)远远快于其它相似性能的系统。
2023/5/30 14:42:47 58.86MB 深度学习
1
nlpir汉语分词体系(使用java封装收拾)可实现词频,词性,分词、感情预判、聚类授权等大数占无关算法。
2023/5/11 1:52:38 23.53MB 分词 词频 聚类授权
1
10种英语词性阐发英语词性有10种,另有2种特殊词性分别是及物、不迭物。
10种词性:一、名词(n.),Nouns展现人或者事物的称谓box,pen,tree,apple二、代词(pron.),Pronouns替换名词、数词、描摹词We,this,them,myself三、描摹词(adj.),Adjectives用来润色名词,展现人或者事物的特色good,sad,high,short四、数词(num.),Numerals展现数目或者秩序one,two,first五、动词(v.),Verb展现行为或者外形Jump,sing,visit六、副词(adv.),
2023/5/8 5:40:44 85KB 词性 英语
1
由于竞赛需要用到结巴分词,所以写了一个对于结巴分词、词性标注以及停用词过滤的python法度圭表标准。
2023/4/7 20:01:23 7.15MB python jieba
1
分词_频数_词性@35万_结巴语料,分词_频数_词性@35万_结巴语料
2023/3/18 11:01:03 64B nlp 语料 频数 词性
1
从bbc上爬取的较常用的英文单词数据库(13.5万单词量),内含单词中文翻译、扩大、词性、音标、读音链接、出现次数。
(金山词霸API翻译)
2016/4/22 8:32:25 11.45MB 单词 数据库 英文 mysql
1
jieba分词器所用的字典,包含词频以及词性,可自行调整频次等属性。
(仅做学习交换用,禁止商用)
2020/8/26 7:33:57 4.84MB NLP 自然语言处理 人工智能 词性字典
1
bamboo是一个中文言语处理系统。
目前包括中文分词和词性标注部分。
bamboo提供了C,PHP,PostgreSQL的编程接口。
2022/12/13 11:18:36 115KB 全文检索 中文分词
1
Spacy是自然言语处理需要使用的一个工具包,加载模型后就可以做分词,词性标注等任务。
当你执行这条命令python-mspacydownloaden。
但是没有网的时候,可能这个包有用。
spaCy>=2.0.0a18
2019/7/16 16:07:15 115.25MB spacy
1
人民日报标注语料库(版本1.0,下面简称PFR语料库)是在得到人民日报社旧事信息中心许可的条件下,以1998年人民日报语料为对象,由北京大学计算语言学研究所和富士通研究开发中心有限公司共同制作的标注语料库。
该语料库对600多万字节的中文文章进行了分词及词性标注,其被作为原始数据应用于大量的研究和论文中。
2015/6/14 16:50:45 10.18MB 中文语料 标注语料 自然语言处理
1
共 32 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡