处理tomcat启动时如下异常:TheAPRbasedApacheTomcatNativelibrarywhichallowsoptimalperformanceinproductionenvironmentswasnotfoundonthejava.library.path
2023/3/8 3:30:42 4.9MB tomcat tcnative-1
1
使用maven作为依赖管理的时候,从地方仓库拉取依赖时,由于网络原因没有拉取完整,会生成.lastUpdated,该文件会导致后续依赖的导入失败,本资源可以扫描清除该类型文件,使用时记得配置maven仓库的路径REPOSITORY_PATH
2023/3/6 9:40:45 198B maven lastUpdated _REPOSITORY
1
文本挖掘tmSVM开源项目集成libSVM和liblinear包含Python和Java两种版本带PDF源码参考文档简介文本挖掘无论在学术界还是在工业界都有很广泛的应用场景。
而文本分类是文本挖掘中一个非常重要的手段与技术。
现有的分类技术都已经非常成熟,SVM、KNN、DecisionTree、AN、NB在不同的应用中都展示出较好的效果,前人也在将这些分类算法应用于文本分类中做出许多出色的工作。
但在实际的商业应用中,仍然有很多问题没有很好的解决,比如文本分类中的高维性和稀疏性、类别的不平衡、小样本的训练、Unlabeled样本的有效利用、如何选择最佳的训练样本等。
这些问题都将导致curveofdimension、过拟合等问题。
这个开源系统的目的是集众人智慧,将文本挖掘、文本分类前沿领域效果非常好的算法实现并有效组织,形成一条完整系统将文本挖掘尤其是文本分类的过程自动化。
该系统提供了Python和Java两种版本。
主要特征该系统在封装libsvm、liblinear的基础上,又增加了特征选择、LSA特征抽取、SVM模型参数选择、libsvm格式转化模块以及一些实用的工具。
其主要特征如下:封装并完全兼容*libsvm、liblinear。
基于Chi*的featureselection见feature_selection基于LatentSemanticAnalysis的featureextraction见feature_extraction支持Binary,Tf,log(tf),Tf*Idf,tf*rf,tf*chi等多种特征权重见feature_weight文本特征向量的归一化见Normalization利用交叉验证对SVM模型参数自动选择。
见SVM_model_selection支持macro-average、micro-average、F-measure、Recall、Precision、Accuracy等多种评价指标见evaluation_measure支持多个SVM模型同时进行模型预测采用python的csc_matrix支持存储大稀疏矩阵。
引入第三方分词工具自动进行分词将文本直接转化为libsvm、liblinear所支持的格式。
使用该系统可以做什么对文本自动做SVM模型的训练。
包括Libsvm、Liblinear包的选择,分词,词典生成,特征选择,SVM参数的选优,SVM模型的训练等都可以一步完成。
利用生成的模型对未知文本做预测。
并返回预测的标签以及该类的隶属度分数。
可自动识别libsvm和liblinear的模型。
自动分析预测结果,评判模型效果。
计算预测结果的F值、召回率、准确率、Macro,Micro等指标,并会计算特定阈值、以及指定区间所有阈值下的相应指标。
分词。
对文本利用mmseg算法对文本进行分词。
特征选择。
对文本进行特征选择,选择最具代表性的词。
SVM参数的选择。
利用交叉验证方法对SVM模型的参数进行识别,可以指定搜索范围,大于大数据,会自动选择子集做粗粒度的搜索,然后再用全量数据做细粒度的搜索,直到找到最优的参数。
对libsvm会选择c,g(gamma),对与liblinear会选择c。
对文本直接生成libsvm、liblinear的输入格式。
libsvm、liblinear以及其他诸如weka等数据挖掘软件都要求数据是具有向量格式,使用该系统可以生成这种格式:labelindex:valueSVM模型训练。
利用libsvm、liblinear对模型进行训练。
利用LSA对进行FeatureExtraction*,从而提高分类效果。
开始使用QuickStart里面提供了方便的使用指导如何使用该系统可以在命令行(Linux或cmd中)中直接使用,也可以在程序通过直接调用源程序使用。
在程序中使用。
#将TMSVM系统的路径加入到Python搜索路径中importsyssys.path.insert(0,yourPath+"\tmsvm\src")importtms#对data文件夹下的binary_seged.train文件进行训练。
tms.tms_train(“../data/binary_seged.train”)#利用已经训练好的模型,对对data文件夹下的binary_seged.test文件预测tms.tms_predict(“../data/binary_seged.test”,”../model/tms.config”)#对预测的结果进行分析,评判模型的效果tms.tms_analysis(“../tms.result”)在命令行中调用#对data文件夹下的binary_seged.train文件进行训练。
$pythonauto_train.py[options]../data/binary_seged.train#利用已经训练好的模型,对对data文件夹下的binary_seged.test文件预测pythonpredict.py../data/binary_seged.train../model/tms.config#对预测的结果进行分析,评判模型的效果$pythonresult_anlaysis.py../tms.result上面的调用方式都是使用系统中默认的参数,更具体、灵活的参数见程序调用接口输入格式labelvalue1[value2]其中label是定义的类标签,如果是binaryclassification,建议positive样本为1,negative样本为-1。
如果为multi-classification。
label可以是任意的整数。
其中value为文本内容。
label和value以及value1和value2之间需要用特殊字符进行分割,如”\t”模型输出模型结果会放在指定保存路径下的“model”文件夹中,里面有3个文件,默认情况下为dic.key、tms.model和tms.config。
其中dic.key为特征选择后的词典;
tms.model为训练好的SVM分类模型;tms.config为模型的配置文件,里面记录了模型训练时使用的参数。
临时文件会放在“temp”文件夹中。
里面有两个文件:tms.param和tms.train。
其中tms.param为SVM模型参数选择时所实验的参数。
tms.train是供libsvm和liblinear训练器所使用的输入格式。
源程序说明src:即该系统的源代码,提供了5个可以在Linux下可以直接调用的程序:auto_train.py、train.py、predict.py为在Linux下通过命令行调用的接口。
tms.py为在程序中调用的主文件,直接通过importtms即可调用系统的所有函数。
其他文件为程序中实现各个功能的文件。
lsa_src:LSA模型的源程序。
dependence:系统所依赖的一些包。
包括libsvm、liblinear、Pymmseg在Linux32位和64位以及windows下的支持包(dll,so文件)。
tools:提供的一些有用的工具,包括result_analysis.py等。
java:java版本的模型预测程序,项目重要更新日志2012/09/21针对linux下的bug进行修正。
重新生成win和linux版本的。
2012/03/08增加stem模块,并修正了几个Bug。
2011/11/22tmsvm正式发布。
联系方式邮箱:zhzhl202@163.comThanks本系统引用了libsvm、liblinear的包,非常感谢Chih-JenLin写出这么优秀的软件。
本系统还引用了Pymmseg,非常感谢pluskid能为mmseg写出Python下可以直接使用的程序从最初的想法萌生到第一版上线,中间试验了很多算法,最终因为效果不好删掉了很多代码,在这期间得到了许多人的帮助,非常感谢杨铮、江洋、敏知、施平等人的悉心指导。
特别感谢丽红一直以来的默默支持。
2023/2/8 18:37:14 3.39MB 文本挖掘 tmSVM libSVM 支持向量机
1
南德克萨斯Hyperion用户组这是网站的来源。
该站点是使用构建的。
设置雨果从下载Hugo。
从zip文件中提取hugo.exe并将其放在文件夹中。
(例如X:\hugo)将hugo文件夹添加到PATH。
节点下载并安装克隆GitHub存储库将stxhug克隆到目录中。
假设您已经安装了。
gitclonehttps://github.com/newbish/stxhug.git建设现场安装软件包并运行hugo服务器。
只需执行一次。
后续版本仅需要运行最初两个命令。
生成后,输出将放置在“public”目录中。
如果在本地测试,请使用hugoserve来启动测试Web服务器。
cdstxhug\npminstallnpminstallgulp-ggulphugoHugo命令的完整列表Afulllistofcommands
2023/1/15 1:25:53 15.11MB hyperion oracle houston epm
1
压缩包包含两个程序:bison-2.4.1-setup.exe\flex-2.5.4a-1.exe下载后直接点击安装就可以,接着右键计算机,打开属性->高级系统设置->环境变量,在path变量中添加路径,即到你安装好的程序的bin的路径,如:C:\ProgramFiles(x86)\GnuWin32\bin;之后你就可以在cmd中通过命令编译你的lex\yacc文件了。
绝对可用,本人亲试,如果编译不成功的可能是你写的lex\yacc文件有问题,用一个好的示例文件进行编译就晓得这可以用了(血泪教训啊,当初还以为不能用呢)
2016/4/15 18:09:24 4.79MB LEX YACC FLEX BISON
1
oracle11g基本客户端,主要是sqlplus,sqlldr,exp,imp这几个命令。
最最主要的还是sqlldr,想找个单独可用的sqlldr,在Oracle10gClient精简优化安装包不到12Mhttp://download.csdn.net/download/mysky2008/4382509下载了10g的,但本地测试出现sql*loader704错误,不知道怎么处理,也找不到其他资源,最后去找安装了完整版的同事,借鉴这个下载链接里面的文件,删除了其他没用到的东西(经历了好几个小时,一个一个dll测试过去),最后sqlplus,sqlldr可用。
如果是遇到sql*loader284错误的,是因为缺少nls语言支持,可以到这里https://pan.baidu.com/s/1eRR0N0u下载完整版的语言支持,之后覆盖nls这个目录就好。
解压后设置环境变量ORACLE_HOME到client_1目录,TNS_ADMIN还是指向原来tnsnames.ora所在的目录,在Path加上BIN目录就可以了。
2018/11/24 10:27:05 22.9MB sqlldr
1
google_play_service错误处理:如果指定了chromium版本,下载对应版本文件查看google_play_service版本:/src/build/android/play_services/config.json文件{"version_number":3159130,"version_xml_path":"res/values/version.xml"}
2020/5/17 15:54:58 4.89MB chromium webview
1
google_play_service错误处理:如果指定了chromium版本,下载对应版本文件查看google_play_service版本:/src/build/android/play_services/config.json文件{"version_number":3159130,"version_xml_path":"res/values/version.xml"}
2016/2/13 13:35:25 4.89MB chromium webview
1
Mateda2.0一个极度好用的分布估计算法matlab工具箱,ForapreliminaryexplanationofMateda2.0seethefileMateda2.0-UserGuide.pdfinthisdirectory.Generaldocumentationabouttheprogramsisavailableinthe/docdirectoryorfrom:http://www.sc.ehu.es/ccwbayes/members/rsantana/software/matlab/MATEDA.htmlMATEDA-2.0employstheMatlabBayesNet(BNT)toolbox(Murphy:2001)andtheBNTstructurelearningpackage(Leray_and_Francois:2004).Theseprograms,whicharefreelyavailablefromtheauthorswebsite(theycanberespectivelydownloadedfromhttp://people.cs.ubc.ca/~murphyk/Software/BNT/bnt.htmlandhttp://banquiseasi.insa-rouen.fr/projects/bnt-slp/),shouldbeinstalledpreviouslytotheMATEDA-2.0installation.SomeoftheMATEDA-2.0routinesalsoemploystheMATLABstatisticaltoolboxandtheaffinitypropagationclusteringalgorithm(Frey_and_Dueck:2007)(theMatlabimplementationofaffinitypropagationisavailablefromhttp://www.psi.toronto.edu/affinitypropagation/).AfterinstallingtheBNTandBNTstructurelearningtools:1)SetthepathtothecurrentBNTstructurelearningtooldirectory.Thisisdonebymodifyingfileadd_SLP.m.2)UnpackthefileIntEDA.zipandcopythefilestoadirectorynamedMATEDA.3)EditfileInitEnvironment.mupdatingthepathspath_MATEDA,path_FullBNTandpath_BNT_SLP.4)SetthecurrentMatlabdirectorytotheMATEDAdirectory.5)ExecuteprogramInitEnvironments.m.Severalwarningsbutnoerrorshouldappear.ThefolderScriptsMatedacontainsseveralexamplesofEDAsimplementations.ThefileMateda2.0-UserGuide.pdfcontainsadetailedexplanationofhowtousetheprograms.Thislibraryisdistributedinthehopethatitwillbeuseful,butWITHOUTANYWARRANTY;withouteventheimpliedwarrantyofMERCHANTABILITYorFITNESSFORAPARTICULARPURPOSE.Lastversion2/04/2009.RobertoSantana(roberto.santana@ehu.es)
2018/2/19 3:07:38 956KB 分布估计算 matlab工具箱
1
hadoop2.7.1对应的hadoop.dll,winutils.exe等。
亲测,可用!针对问题:hadoop2.7.1运行Wordcount错误atjava.lang.ProcessBuilder.start(ProcessBuilder.java:1012)Exceptioninthread"main"java.lang.UnsatisfiedLinkError处理办法:1:将文件解压到hadoop的bin目录下2:将hadoop.dll复制到C:\Window\System32下3:添加环境变量HADOOP_HOME,指向hadoop目录4:将%HADOOP_HOME%\bin加入到path里面5:重启myeclipse或者eclipse
2021/8/20 6:43:56 781KB hadoop2.7.1 hadoop.dll winutils.exe Wordcount
1
共 153 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡