Spacy是自然语言处理需要使用的一个工具包,加载模型后就可以做分词,词性标注等任务啦。
当你执行这条命令python-mspacydownloaden。
但是没有网的时候,可能这个包有用。
spaCy>=2.0.0a18
2025/9/20 8:41:05 35.62MB spacy_model en_core_web_
1
ROSTCM6是武汉大学沈阳教授研发编码的国内目前唯一的以辅助人文社会科学研究的大型免费社会计算平台。
该软件可以实现微博分析、聊天分析、全网分析、网站分析、浏览分析、分词、词频统计、英文词频统计、流量分析、聚类分析等一系列文本分析,用户量超过7000,遍布海内外100多所大学,包括剑桥大学、日本北海道大学、北京大学、清华大学、香港城市大学、澳门大学众多高校。
写论文的一把利器,精通ROSTCM,一周写出SSCI不成问题
2025/9/4 0:34:52 10.77MB ROSTCM6.zip
1
在进行文本情感分类时,对文本数据需要进行分词处理,为了提高分词的准确性,需要加入用户词典,本文是针对手机评论数据整理出的用户词典。
2025/9/3 17:54:46 3KB 文档
1
文件上传js、Chart图形、Cookie&Session&Cache、CSV文件转换、DEncrypt、FTP操作类、JS、Json、Mime、PDF、Properties、ResourceManager、XML操作类、弹出消息类、导出Excel、分词辅助类、汉字转拼音、配置文件操作类、日历、上传下载、时间操作类、视频转换类、随机数类、条形码、图片、网络、文件操作类、序列化、压缩解压缩、验证码、页面辅助类、邮件、邮件2、正则表达式、字符串、SSO、SEO、过滤器、C#连接linux终端等等几十个工具操作类.
2025/9/1 16:31:46 4.94MB asp.net
1
涉及知识表示与推理,机器学习,自然语言处理(词云、分词)的一个五子棋对战系统。
采用java语言编写。
中有完整代码,讲解视频,项目报告,一应俱全。
1
基于贝叶斯分类的中文垃圾信息分类识别核心核心代码,可直接运行的源程序。
publicvoidloadTrainingDataChinies(FiletrainingDataFile,StringinfoType){//加载中文分词其NLPIR.init("lib");//System.out.println(trainingDataFile.isFile()+"==============");//尝试加载学习数据文件try{//针对学习数据文件构建缓存的字符流,利用其可以采用行的方式读取学习数据BufferedReaderfileReader=newBufferedReader(newFileReader(trainingDataFile));//定义按照行的方式读取学习数据的临时变量Stringdata="";//循环读取学习文件中的数据while((data=fileReader.readLine())!=null){//System.out.println("*****************************");//System.out.println(data+"000000000000000000000");//按照格式分割字符串,将会分割成两部分,第一部分为ham或spam,用于说明本行数据是有效消息还是垃圾消息,第二部分为消息体本身//String[]datas=data.split(":");//对消息体本身进行简单分词(本学习数据均为英文数据,因此可以利用空格进行自然分词,但是直接用空格分割还是有些简单粗暴,因为没有处理标点符号,大家可以对其进行扩展,先用正则表达式处理标点符号后再进行分词,也可以扩展加入中文的分词功能)//首先进行中文分词//System.out.println(datas[1]+"------------------------");//if(datas.length>1){//System.out.println(datas.length);Stringtemp=NLPIR.paragraphProcess(data,0);//System.out.println(temp);String[]words=temp.split("");
2025/8/1 3:41:15 14KB 垃圾信息 文本分类 贝叶斯
1
本次提供的中文汉语语料syj_trainCorpus_utf8.txt全网免费,转载需要注明出处,语料是作者通过爬取的短文本和网络上的预料处理、合并生成的。
整个语料大小264M,包含1116903条数据,数据用空格隔开,可以用来训练分词模型。
2025/7/17 17:47:24 108.12MB NLP 语料 中文分词语料 中文语料
1
简介:
利用keras实现文本分类,分词,并对微博文本进行情绪分析
2025/6/15 19:49:20 3KB
1
搜狗语料库,自己用结巴分词分好的。
(为什么摘要必须大于50个字)
2025/6/12 21:04:15 16.3MB 语料库;分词
1
自然语言处理课程的小作业,以新闻语料为基础,用HMM算法实现中文分词。
按照每个字为B,E,S,M进行划分。
以新闻语料为基础,用HMM算法实现中文分词。
按照每个字为B,E,S,M进行划分。
2025/6/3 8:36:25 2.25MB HMM
1
共 222 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡