这是一个实现SVM分类的代码,基于Linux操作系统的
2023/6/12 12:33:09 5KB SVM
1
自己训练SVM分类器进行HOG行人检测,环境VS2013+OpenCV
2023/6/12 7:04:36 29.32MB 代码 行人检测
1
SVM算法的代码,用pyhon实现的,可直接用,很方便,下载即可用!该算法可用于机器学习分类研究,是一种典型的分类算法,非常适合论文实验。
2023/5/30 11:07:15 14KB SVM 机器学习 集成学习 分类器
1
matlab罕用代码大全,帮手你科研,论文实证阐发,数模竞赛第44章条理阐发法第45章灰色联系瓜葛度第46章熵权法第47章主成份阐发第48章主成份回归第49章偏最小二乘第50章垂垂回归阐发第51章模拟退火第52章RBF,GRNN,PNN-神经收集第53章相助神经收集与SOM神经收集第54章蚁群算法tsp求解第55章灰色料想GM1-1第56章模糊综合评估第57章交织验证神经收集第58章多项式拟合plotfit第59章非线性拟合lsqcurefit第60章kmeans聚类第61章FCM聚类第62章arima功夫序列第63章topsis第1章BP神经收集的数据分类——语音特色信号分类第2章BP神经收集的非线性体系建模——非线性函数拟合第3章遗传算法优化BP神经收集——非线性函数拟合第4章神经收集遗传算法函数极值寻优——非线性函数极值寻优第5章基于BP_Adaboost的强分类器方案——公司财政预警建模第6章PID神经元收集解耦抑制算法——多变量体系抑制第7章RBF收集的回归--非线性函数回归的实现第8章GRNN收集的料想----基于狭义回归神经收集的货运量料想第9章离散Hopfield神经收集的遥想影像——数字识别第10章离散Hopfield神经收集的分类——高校科研才气评估第11章络续Hopfield神经收集的优化——遨游商下场优化盘算第12章初始SVM分类与回归第13章LIBSVM参数实例详解第14章基于SVM的数据分类料想——意大利葡萄酒品种识别第15章SVM的参数优化——若何更好的提升分类器的成果第16章基于SVM的回归料想阐发——上证指数收盘指数料想.第17章基于SVM的信息粒化时序回归料想——上证指数收盘指数变更趋向以及变更空间料想第18章基于SVM的图像联系-真玄色图像联系第19章基于SVM的手写字体识别第20章LIBSVM-FarutoUltimate货物箱及GUI版本介绍与使用第21章自结构相助收集在方式分类中的使用—患者癌症发病料想第22章SOM神经收集的数据分类--柴油机缺陷诊断第23章Elman神经收集的数据料想----电力负荷料想模子钻研第24章概率神经收集的分类料想--基于PNN的变压器缺陷诊断第25章基于MIV的神经收集变量遴选----基于BP神经收集的变量遴选第26章LVQ神经收集的分类——乳腺肿瘤诊断第27章LVQ神经收集的料想——人脸朝向识别第28章遴选树分类器的使用钻研——乳腺癌诊断第29章极限学习机在回归拟合及分类下场中的使用钻研——比力试验第30章基于随机森林脑子的组合分类器方案——乳腺癌诊断第31章脑子进化算法优化BP神经收集——非线性函数拟合第32章小波神经收集的功夫序列料想——短时交通流量料想第33章模糊神经收集的料想算法——嘉陵江水质评估第34章狭义神经收集的聚类算法——收集入侵聚类第35章粒子群优化算法的寻优算法——非线性函数极值寻优第36章遗传算法优化盘算——建模自变量降维第37章基于灰色神经收集的料想算法钻研——定单需要料想第38章基于Kohonen收集的聚类算法——收集入侵聚类第39章神经收集GUI的实现——基于GUI的神经收集拟合、方式识别、聚类第40章动态神经收集功夫序列料想钻研——基于MATLAB的NARX实现第41章定制神经收集的实现——神经收集的本能化建模与仿真第42章并背运算与神经收集——基于CPU/GPU的并行神经收集运算第43章神经收集高效编程本领——基于MATLABR2012b新版本特色的谈判
2023/5/9 23:33:27 12.05MB matlab 神经网络
1
使用Hu距作为特色SVM分类器举行料想的行为识别法度圭表标准,能够识别stand_up/hand_up/nothing三个种别,适宜初学者,可普通运行。
由于熬炼的样本较少,所以识别下场不是很准确,有待于扩展样本数目,驱散巨匠下载交流。
2023/4/28 15:01:43 4.31MB 动作识别 Hu距 SVM opencv2.4.9
1
HOG提取特色,svm分类,python语言实现
2023/4/28 9:18:42 5KB hog;svm
1
对于jaffe人脸库举行识别测试的主法度圭表标准,将jaffe人脸库分为熬炼集以及测试集两部份,起首对于图片举行LBP+LPQ特色提取,而后svm分类识别,统计识别率
2023/3/23 10:42:06 23.63MB 表情识别代码
1
紧缩包中包括SVM分类算法的实现代码、测试数据以及实验报告
2023/3/3 19:08:49 3.11MB SVM分类 C++ 实习报告
1
文本挖掘tmSVM开源项目集成libSVM和liblinear包含Python和Java两种版本带PDF源码参考文档简介文本挖掘无论在学术界还是在工业界都有很广泛的应用场景。
而文本分类是文本挖掘中一个非常重要的手段与技术。
现有的分类技术都已经非常成熟,SVM、KNN、DecisionTree、AN、NB在不同的应用中都展示出较好的效果,前人也在将这些分类算法应用于文本分类中做出许多出色的工作。
但在实际的商业应用中,仍然有很多问题没有很好的解决,比如文本分类中的高维性和稀疏性、类别的不平衡、小样本的训练、Unlabeled样本的有效利用、如何选择最佳的训练样本等。
这些问题都将导致curveofdimension、过拟合等问题。
这个开源系统的目的是集众人智慧,将文本挖掘、文本分类前沿领域效果非常好的算法实现并有效组织,形成一条完整系统将文本挖掘尤其是文本分类的过程自动化。
该系统提供了Python和Java两种版本。
主要特征该系统在封装libsvm、liblinear的基础上,又增加了特征选择、LSA特征抽取、SVM模型参数选择、libsvm格式转化模块以及一些实用的工具。
其主要特征如下:封装并完全兼容*libsvm、liblinear。
基于Chi*的featureselection见feature_selection基于LatentSemanticAnalysis的featureextraction见feature_extraction支持Binary,Tf,log(tf),Tf*Idf,tf*rf,tf*chi等多种特征权重见feature_weight文本特征向量的归一化见Normalization利用交叉验证对SVM模型参数自动选择。
见SVM_model_selection支持macro-average、micro-average、F-measure、Recall、Precision、Accuracy等多种评价指标见evaluation_measure支持多个SVM模型同时进行模型预测采用python的csc_matrix支持存储大稀疏矩阵。
引入第三方分词工具自动进行分词将文本直接转化为libsvm、liblinear所支持的格式。
使用该系统可以做什么对文本自动做SVM模型的训练。
包括Libsvm、Liblinear包的选择,分词,词典生成,特征选择,SVM参数的选优,SVM模型的训练等都可以一步完成。
利用生成的模型对未知文本做预测。
并返回预测的标签以及该类的隶属度分数。
可自动识别libsvm和liblinear的模型。
自动分析预测结果,评判模型效果。
计算预测结果的F值、召回率、准确率、Macro,Micro等指标,并会计算特定阈值、以及指定区间所有阈值下的相应指标。
分词。
对文本利用mmseg算法对文本进行分词。
特征选择。
对文本进行特征选择,选择最具代表性的词。
SVM参数的选择。
利用交叉验证方法对SVM模型的参数进行识别,可以指定搜索范围,大于大数据,会自动选择子集做粗粒度的搜索,然后再用全量数据做细粒度的搜索,直到找到最优的参数。
对libsvm会选择c,g(gamma),对与liblinear会选择c。
对文本直接生成libsvm、liblinear的输入格式。
libsvm、liblinear以及其他诸如weka等数据挖掘软件都要求数据是具有向量格式,使用该系统可以生成这种格式:labelindex:valueSVM模型训练。
利用libsvm、liblinear对模型进行训练。
利用LSA对进行FeatureExtraction*,从而提高分类效果。
开始使用QuickStart里面提供了方便的使用指导如何使用该系统可以在命令行(Linux或cmd中)中直接使用,也可以在程序通过直接调用源程序使用。
在程序中使用。
#将TMSVM系统的路径加入到Python搜索路径中importsyssys.path.insert(0,yourPath+"\tmsvm\src")importtms#对data文件夹下的binary_seged.train文件进行训练。
tms.tms_train(“../data/binary_seged.train”)#利用已经训练好的模型,对对data文件夹下的binary_seged.test文件预测tms.tms_predict(“../data/binary_seged.test”,”../model/tms.config”)#对预测的结果进行分析,评判模型的效果tms.tms_analysis(“../tms.result”)在命令行中调用#对data文件夹下的binary_seged.train文件进行训练。
$pythonauto_train.py[options]../data/binary_seged.train#利用已经训练好的模型,对对data文件夹下的binary_seged.test文件预测pythonpredict.py../data/binary_seged.train../model/tms.config#对预测的结果进行分析,评判模型的效果$pythonresult_anlaysis.py../tms.result上面的调用方式都是使用系统中默认的参数,更具体、灵活的参数见程序调用接口输入格式labelvalue1[value2]其中label是定义的类标签,如果是binaryclassification,建议positive样本为1,negative样本为-1。
如果为multi-classification。
label可以是任意的整数。
其中value为文本内容。
label和value以及value1和value2之间需要用特殊字符进行分割,如”\t”模型输出模型结果会放在指定保存路径下的“model”文件夹中,里面有3个文件,默认情况下为dic.key、tms.model和tms.config。
其中dic.key为特征选择后的词典;
tms.model为训练好的SVM分类模型;tms.config为模型的配置文件,里面记录了模型训练时使用的参数。
临时文件会放在“temp”文件夹中。
里面有两个文件:tms.param和tms.train。
其中tms.param为SVM模型参数选择时所实验的参数。
tms.train是供libsvm和liblinear训练器所使用的输入格式。
源程序说明src:即该系统的源代码,提供了5个可以在Linux下可以直接调用的程序:auto_train.py、train.py、predict.py为在Linux下通过命令行调用的接口。
tms.py为在程序中调用的主文件,直接通过importtms即可调用系统的所有函数。
其他文件为程序中实现各个功能的文件。
lsa_src:LSA模型的源程序。
dependence:系统所依赖的一些包。
包括libsvm、liblinear、Pymmseg在Linux32位和64位以及windows下的支持包(dll,so文件)。
tools:提供的一些有用的工具,包括result_analysis.py等。
java:java版本的模型预测程序,项目重要更新日志2012/09/21针对linux下的bug进行修正。
重新生成win和linux版本的。
2012/03/08增加stem模块,并修正了几个Bug。
2011/11/22tmsvm正式发布。
联系方式邮箱:zhzhl202@163.comThanks本系统引用了libsvm、liblinear的包,非常感谢Chih-JenLin写出这么优秀的软件。
本系统还引用了Pymmseg,非常感谢pluskid能为mmseg写出Python下可以直接使用的程序从最初的想法萌生到第一版上线,中间试验了很多算法,最终因为效果不好删掉了很多代码,在这期间得到了许多人的帮助,非常感谢杨铮、江洋、敏知、施平等人的悉心指导。
特别感谢丽红一直以来的默默支持。
2023/2/8 18:37:14 3.39MB 文本挖掘 tmSVM libSVM 支持向量机
1
对jaffe人脸库进行辨认测试,将jaffe人脸库分为训练集和测试集两部分,首先对图片进行LBP+LPQ特征提取,然后svm分类辨认,统计辨认率
2023/1/27 22:14:12 2.66MB 表情识别 源码Matlab LBP+LPQ SVM
1
共 57 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡