文本挖掘tmSVM开源项目集成libSVM和liblinear包含Python和Java两种版本带PDF源码参考文档简介文本挖掘无论在学术界还是在工业界都有很广泛的应用场景。
而文本分类是文本挖掘中一个非常重要的手段与技术。
现有的分类技术都已经非常成熟,SVM、KNN、DecisionTree、AN、NB在不同的应用中都展示出较好的效果,前人也在将这些分类算法应用于文本分类中做出许多出色的工作。
但在实际的商业应用中,仍然有很多问题没有很好的解决,比如文本分类中的高维性和稀疏性、类别的不平衡、小样本的训练、Unlabeled样本的有效利用、如何选择最佳的训练样本等。
这些问题都将导致curveofdimension、过拟合等问题。
这个开源系统的目的是集众人智慧,将文本挖掘、文本分类前沿领域效果非常好的算法实现并有效组织,形成一条完整系统将文本挖掘尤其是文本分类的过程自动化。
该系统提供了Python和Java两种版本。
主要特征该系统在封装libsvm、liblinear的基础上,又增加了特征选择、LSA特征抽取、SVM模型参数选择、libsvm格式转化模块以及一些实用的工具。
其主要特征如下:封装并完全兼容*libsvm、liblinear。
基于Chi*的featureselection见feature_selection基于LatentSemanticAnalysis的featureextraction见feature_extraction支持Binary,Tf,log(tf),Tf*Idf,tf*rf,tf*chi等多种特征权重见feature_weight文本特征向量的归一化见Normalization利用交叉验证对SVM模型参数自动选择。
见SVM_model_selection支持macro-average、micro-average、F-measure、Recall、Precision、Accuracy等多种评价指标见evaluation_measure支持多个SVM模型同时进行模型预测采用python的csc_matrix支持存储大稀疏矩阵。
引入第三方分词工具自动进行分词将文本直接转化为libsvm、liblinear所支持的格式。
使用该系统可以做什么对文本自动做SVM模型的训练。
包括Libsvm、Liblinear包的选择,分词,词典生成,特征选择,SVM参数的选优,SVM模型的训练等都可以一步完成。
利用生成的模型对未知文本做预测。
并返回预测的标签以及该类的隶属度分数。
可自动识别libsvm和liblinear的模型。
自动分析预测结果,评判模型效果。
计算预测结果的F值、召回率、准确率、Macro,Micro等指标,并会计算特定阈值、以及指定区间所有阈值下的相应指标。
分词。
对文本利用mmseg算法对文本进行分词。
特征选择。
对文本进行特征选择,选择最具代表性的词。
SVM参数的选择。
利用交叉验证方法对SVM模型的参数进行识别,可以指定搜索范围,大于大数据,会自动选择子集做粗粒度的搜索,然后再用全量数据做细粒度的搜索,直到找到最优的参数。
对libsvm会选择c,g(gamma),对与liblinear会选择c。
对文本直接生成libsvm、liblinear的输入格式。
libsvm、liblinear以及其他诸如weka等数据挖掘软件都要求数据是具有向量格式,使用该系统可以生成这种格式:labelindex:valueSVM模型训练。
利用libsvm、liblinear对模型进行训练。
利用LSA对进行FeatureExtraction*,从而提高分类效果。
开始使用QuickStart里面提供了方便的使用指导如何使用该系统可以在命令行(Linux或cmd中)中直接使用,也可以在程序通过直接调用源程序使用。
在程序中使用。
#将TMSVM系统的路径加入到Python搜索路径中importsyssys.path.insert(0,yourPath+"\tmsvm\src")importtms#对data文件夹下的binary_seged.train文件进行训练。
tms.tms_train(“../data/binary_seged.train”)#利用已经训练好的模型,对对data文件夹下的binary_seged.test文件预测tms.tms_predict(“../data/binary_seged.test”,”../model/tms.config”)#对预测的结果进行分析,评判模型的效果tms.tms_analysis(“../tms.result”)在命令行中调用#对data文件夹下的binary_seged.train文件进行训练。
$pythonauto_train.py[options]../data/binary_seged.train#利用已经训练好的模型,对对data文件夹下的binary_seged.test文件预测pythonpredict.py../data/binary_seged.train../model/tms.config#对预测的结果进行分析,评判模型的效果$pythonresult_anlaysis.py../tms.result上面的调用方式都是使用系统中默认的参数,更具体、灵活的参数见程序调用接口输入格式labelvalue1[value2]其中label是定义的类标签,如果是binaryclassification,建议positive样本为1,negative样本为-1。
如果为multi-classification。
label可以是任意的整数。
其中value为文本内容。
label和value以及value1和value2之间需要用特殊字符进行分割,如”\t”模型输出模型结果会放在指定保存路径下的“model”文件夹中,里面有3个文件,默认情况下为dic.key、tms.model和tms.config。
其中dic.key为特征选择后的词典;
tms.model为训练好的SVM分类模型;tms.config为模型的配置文件,里面记录了模型训练时使用的参数。
临时文件会放在“temp”文件夹中。
里面有两个文件:tms.param和tms.train。
其中tms.param为SVM模型参数选择时所实验的参数。
tms.train是供libsvm和liblinear训练器所使用的输入格式。
源程序说明src:即该系统的源代码,提供了5个可以在Linux下可以直接调用的程序:auto_train.py、train.py、predict.py为在Linux下通过命令行调用的接口。
tms.py为在程序中调用的主文件,直接通过importtms即可调用系统的所有函数。
其他文件为程序中实现各个功能的文件。
lsa_src:LSA模型的源程序。
dependence:系统所依赖的一些包。
包括libsvm、liblinear、Pymmseg在Linux32位和64位以及windows下的支持包(dll,so文件)。
tools:提供的一些有用的工具,包括result_analysis.py等。
java:java版本的模型预测程序,项目重要更新日志2012/09/21针对linux下的bug进行修正。
重新生成win和linux版本的。
2012/03/08增加stem模块,并修正了几个Bug。
2011/11/22tmsvm正式发布。
联系方式邮箱:zhzhl202@163.comThanks本系统引用了libsvm、liblinear的包,非常感谢Chih-JenLin写出这么优秀的软件。
本系统还引用了Pymmseg,非常感谢pluskid能为mmseg写出Python下可以直接使用的程序从最初的想法萌生到第一版上线,中间试验了很多算法,最终因为效果不好删掉了很多代码,在这期间得到了许多人的帮助,非常感谢杨铮、江洋、敏知、施平等人的悉心指导。
特别感谢丽红一直以来的默默支持。
2023/2/8 18:37:14 3.39MB 文本挖掘 tmSVM libSVM 支持向量机
1
AG'sNewsTopicClassificationDatasetVersion3,Updated09/09/2015ORIGINAGisacollectionofmorethan1millionnewsarticles.Newsarticleshavebeengatheredfrommorethan2000newssourcesbyComeToMyHeadinmorethan1yearofactivity.ComeToMyHeadisanacademicnewssearchenginewhichhasbeenrunningsinceJuly,2004.Thedatasetisprovidedbytheacademiccomunityforresearchpurposesindatamining(clustering,classification,etc),informationretrieval(ranking,search,etc),xml,datacompression,datastreaming,andanyothernon-commercialactivity.Formoreinformation,pleaserefertothelinkhttp://www.di.unipi.it/~gulli/AG_corpus_of_news_articles.html.TheAG'snewstopicclassificationdatasetisconstructedbyXiangZhang(xiang.zhang@nyu.edu)fromthedatasetabove.Itisusedasatextclassificationbenchmarkinthefollowingpaper:XiangZhang,JunboZhao,YannLeCun.Character-levelConvolutionalNetworksforTextClassification.AdvancesinNeuralInformationProcessingSystems28(NIPS2015).DESCRIPTIONTheAG'snewstopicclassificationdatasetisconstructedbychoosing4largestclassesfromtheoriginalcorpus.Eachclasscontains30,000trainingsamplesand1,900testingsamples.Thetotalnumberoftrainingsamplesis120,000andtesting7,600.Thefileclasses.txtcontainsalistofclassescorrespondingtoeachlabel.Thefilestrain.csvandtest.csvcontainallthetrainingsamplesascomma-sparatedvalues.Thereare3columnsinthem,correspondingtoclassindex(1to4),titleanddescription.Thetitleanddescriptionareescapedusingdoublequotes("),andanyinternaldoublequoteisescapedby2doublequotes("").Newlinesareescapedbyabackslashfollowedwithan"n"character,thatis"\n".
2021/8/6 15:37:10 11.25MB 数据集 文本分类
1
https://github.com/Shawn1993/cnn-text-classification-pytorch
2017/7/15 20:54:57 22KB pytorch torchtext
1
图像分类运用python的Mini_project
2020/3/15 10:06:44 11KB JupyterNotebook
1
这是HaGRID手势识别数据集使用说明和下载,原文连接:https://panjinquan.blog.csdn.net/article/details/126725796,HaGRID数据集数量特别大,有716GB的大小,包含552,992个FullHD(1920×1080)RGB图像。
此外,如果帧中有第二只手,则某些图像具有no_gesture类。
这个额外的类包含123,589个样本。
数据分为92%的训练集和8%的测试集,其中509,323幅图像用于训练,43,669幅图像用于测试。
提供手势动作识别数据集,共18个手势类别,每个类别约含有7000张图片,总共123731张图片(12W+)提供所有图片的json标注格式文件,即原始HaGRID数据集的标注格式提供所有图片的XML标注格式文件,即转换为VOC数据集的格式提供所有手势区域的图片,每个标注框的手部区域都裁剪上去,并保存在Classification文件夹下可用于手势目标检测模型训练可用于手势分类识别模型训练
1
2017-06美国最新OpenCVwithPython。
150RMB于亚马逊购置所得。
国内还没的卖。
亚马逊读者评价,5星。
==I'vebeenfollowingthisbook'sdevelopmentonGithubforawhilenow.I'msuperexcitedit'sfinallyout!Ithassomegreatstuffintherethateveryoneshouldknow(classification,regression,decisiontrees,SVMs,etc.)andbe
2018/9/5 22:07:33 11.41MB OpenCV with Python
1
《模式分类》(原书第2版)的第1版《模式分类与场景分析》出版于1973年,是模式识别和场景分析领域奠基性的经曲名著。
在第2版中,除了保留了第1版的关于统计模式识别和结构模式识别的次要内容以外,读者将会发现新增了许多近25年来的新理论和新方法,其中包括神经网络、机器学习、数据挖掘、进化计算、不变量理论、隐马尔可夫模型、统计学习理论和支持向量机等。
作者还为未来25年的模式识别的发展指明了方向。
书中包含许多实例,各种不同方法的对比,丰富的图表,以及大量的课后习题和计算机练习。
2022/9/5 5:49:52 17.09MB 模式识别
1
CNN_classification_feature_extraction该存储库是pytorch中用于分类和特征提取的CNN的实现。
Pytorch预训练的模型已被用于其解释。
该代码支持数据并行性和多GPU,提早停止和类权重。
此外,您可以选择加载预训练的权重(在ImageNet数据集上进行训练)或使用随机权重从头开始训练。
预训练的模型结构在最初一层有1000个节点。
此代码将所有模型的最初一层修改为可与每个数据集兼容。
可以使用以下模型:'resnet18','resnet34','resnet50','resnet101','resnet152','resnext50_32x4d','resnext101_32x8d','wide_resnet50_2','wide_resnet101_2','vgg11','vgg11_bn','vgg13'
2022/9/4 23:46:38 19KB Python
1
category_and_d3运用分类算法预测高血压,并运用d3对结果进行基本可视化####文件夹结构:3天包含用于创建d3条形图的.html文件和.csv数据文件。
*precision.html带有CSS和javascript的html文件。
运用“d3.js”(带有工具提示)库来生成图形,pure_accuracy.csv数据集,该数据集会由precision.html*callback.html带有CSS和javascript的html文件运用。
运用“d3.js”(带有工具提示)库来生成图*pivot_recall.csv数据集,该图*由css和javascript运用的callback.html*feature_importance.htmlhtml文件运用。
运用d3.js库,还运用过渡来生成图形sql包含.sql脚本以生成分类模型中运用的
2015/3/23 3:05:23 11.73MB HTML
1
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡