交通标志数据集,共有62类交通标志。
其中熬炼集数占有4572张照片(每一个种别大概七十个),测试数据集有2520张照片(每一个种别大概40个)。
数据搜罗两个子目录分别train与test实战地址:https://blog.csdn.net/xiaosongshine
2023/4/26 23:43:37 190.04MB 数据集 图像分类
1
#GPF##一、GPF(GraphProcessingFlow):行使图神经收集处置下场的普通化流程一、图节点预展现:行使NE框架,直接患上到全图每一个节点的Embedding;二、正负样本采样:(1)单节点样本;
(2)节点对于样本;
三、抽取封锁子图:可做类化处置,建树一种通用图数据结构;四、子图特色领悟:预展现、节点特色、全局特色、边特色;五、收集配置配备枚举:可所以图输入、图输入的收集;
也可所以图输入,分类/聚类下场输入的收集;六、熬炼以及测试;##二、首要文件:一、graph.py:读入图数据;二、embeddings.py:预展现学习;三、sample.py:采样;四、subgraphs.py/s2vGraph.py:抽取子图;五、batchgraph.py:子图特色领悟;六、classifier.py:收集配置配备枚举;七、parameters.py/until.py:参数配置配备枚举/帮手文件;##三、使用一、在parameters.py中配置配备枚举相关参数(可默许);
二、在example/文件夹中运行响应的案例文件--搜罗链接料想、节点外形料想;
以链接料想为例:###一、导入配置配备枚举参数```fromparametersimportparser,cmd_embed,cmd_opt```###二、参数转换```args=parser.parse_args()args.cuda=notargs.noCudaandtorch.cuda.is_available()torch.manual_seed(args.seed)ifargs.cuda:torch.cuda.manual_seed(args.seed)ifargs.hop!='auto':args.hop=int(args.hop)ifargs.maxNodesPerHopisnotNone:args.maxNodesPerHop=int(args.maxNodesPerHop)```###三、读取数据```g=graph.Graph()g.read_edgelist(filename=args.dataName,weighted=args.weighted,directed=args.directed)g.read_node_status(filename=args.labelName)```###四、患上到全图节点的Embedding```embed_args=cmd_embed.parse_args()embeddings=embeddings.learn_embeddings(g,embed_args)node_information=embeddings#printnode_information```###五、正负节点采样```train,train_status,test,test_status=sample.sample_single(g,args.testRatio,max_train_num=args.maxTrainNum)```###六、抽取节点对于的封锁子图```net=until.nxG_to_mat(g)#printnettrain_graphs,test_graphs,max_n_label=subgraphs.singleSubgraphs(net,train,train_status,test,test_status,args.hop,args.maxNodesPerHop,node_information)print('#train:%d,#test:%d'%(len(train_graphs),len(test_graphs)))```###七、加载收集模子,并在classifier中配置配备枚举相关参数```cmd_args=cmd_opt.parse_args()cmd_args.feat_dim=max_n_label+1cmd_args.attr_dim=node_information.shape[1]cmd_args.latent_dim=[int(x)forxincmd_args.latent_dim.split('-')]iflen(cmd_args.latent_dim)
2023/4/8 5:48:07 119KB 图神经网络 Graph Proces GPF
1
行为识别熬炼pythonActionRecognition/train_action_from_pose.py测试经由getpersonpose_array患上到信息,而后运行pythonActionRecognition/test_action_from_pose.py其中,person02_boxing_d2_uncomp以及person05_walking_d1_uncomp需要事后经由PosturalRecognition/test/VideoCapture.py举行预处置末了输入行为暴发的概率
2023/3/24 10:46:34 25.95MB 动作识别
1
卷积神经网络-Codealong介绍在此代码中,我们将重新研究以前的圣诞老人图像分类示例。
为此,我们将审查从嵌套目录结构中加载数据集并构建基线模型。
从那里,我们将构建一个CNN并演示其在图像识别任务上的改进功能。
建议您运行单元格,以便进一步探索变量并调查代码片段本身。
但是,请注意,某些细胞(尤其是稍后训练的细胞)可能需要几分钟才能运行。
(在Macbookpro上,整个笔记本电脑大约需要15分钟才能运行。
)目标你将能够:使用图像数据生成器从分层文件结构加载图像解释为什么训练神经网络时可能会增加图像数据在训练神经网络之前将数据增强应用于图像文件使用Keras构建CNN正确存储图像分析图像数据时,文件管理很重要。
我们将再次使用圣诞老人图像,但是这次将它们存储在两个文件夹中:santa和not_santa。
我们现在想使用train,validation
2023/3/19 7:39:44 344.12MB JupyterNotebook
1
可从该页面获得的MNIST手写数字数据库具有60,000个示例的训练集和10,000个示例的测试集。
它是NIST提供的更大集合的子集。
数字曾经过尺寸标准化,并以固定尺寸的图像为中心。
对于那些希望在实际数据上尝试学习技术和模式识别方法,同时在预处理和格式化方面花费最少的人来说,它是一个很好的数据库
2023/2/18 23:06:07 11.06MB MNIST数据
1
文本挖掘tmSVM开源项目集成libSVM和liblinear包含Python和Java两种版本带PDF源码参考文档简介文本挖掘无论在学术界还是在工业界都有很广泛的应用场景。
而文本分类是文本挖掘中一个非常重要的手段与技术。
现有的分类技术都已经非常成熟,SVM、KNN、DecisionTree、AN、NB在不同的应用中都展示出较好的效果,前人也在将这些分类算法应用于文本分类中做出许多出色的工作。
但在实际的商业应用中,仍然有很多问题没有很好的解决,比如文本分类中的高维性和稀疏性、类别的不平衡、小样本的训练、Unlabeled样本的有效利用、如何选择最佳的训练样本等。
这些问题都将导致curveofdimension、过拟合等问题。
这个开源系统的目的是集众人智慧,将文本挖掘、文本分类前沿领域效果非常好的算法实现并有效组织,形成一条完整系统将文本挖掘尤其是文本分类的过程自动化。
该系统提供了Python和Java两种版本。
主要特征该系统在封装libsvm、liblinear的基础上,又增加了特征选择、LSA特征抽取、SVM模型参数选择、libsvm格式转化模块以及一些实用的工具。
其主要特征如下:封装并完全兼容*libsvm、liblinear。
基于Chi*的featureselection见feature_selection基于LatentSemanticAnalysis的featureextraction见feature_extraction支持Binary,Tf,log(tf),Tf*Idf,tf*rf,tf*chi等多种特征权重见feature_weight文本特征向量的归一化见Normalization利用交叉验证对SVM模型参数自动选择。
见SVM_model_selection支持macro-average、micro-average、F-measure、Recall、Precision、Accuracy等多种评价指标见evaluation_measure支持多个SVM模型同时进行模型预测采用python的csc_matrix支持存储大稀疏矩阵。
引入第三方分词工具自动进行分词将文本直接转化为libsvm、liblinear所支持的格式。
使用该系统可以做什么对文本自动做SVM模型的训练。
包括Libsvm、Liblinear包的选择,分词,词典生成,特征选择,SVM参数的选优,SVM模型的训练等都可以一步完成。
利用生成的模型对未知文本做预测。
并返回预测的标签以及该类的隶属度分数。
可自动识别libsvm和liblinear的模型。
自动分析预测结果,评判模型效果。
计算预测结果的F值、召回率、准确率、Macro,Micro等指标,并会计算特定阈值、以及指定区间所有阈值下的相应指标。
分词。
对文本利用mmseg算法对文本进行分词。
特征选择。
对文本进行特征选择,选择最具代表性的词。
SVM参数的选择。
利用交叉验证方法对SVM模型的参数进行识别,可以指定搜索范围,大于大数据,会自动选择子集做粗粒度的搜索,然后再用全量数据做细粒度的搜索,直到找到最优的参数。
对libsvm会选择c,g(gamma),对与liblinear会选择c。
对文本直接生成libsvm、liblinear的输入格式。
libsvm、liblinear以及其他诸如weka等数据挖掘软件都要求数据是具有向量格式,使用该系统可以生成这种格式:labelindex:valueSVM模型训练。
利用libsvm、liblinear对模型进行训练。
利用LSA对进行FeatureExtraction*,从而提高分类效果。
开始使用QuickStart里面提供了方便的使用指导如何使用该系统可以在命令行(Linux或cmd中)中直接使用,也可以在程序通过直接调用源程序使用。
在程序中使用。
#将TMSVM系统的路径加入到Python搜索路径中importsyssys.path.insert(0,yourPath+"\tmsvm\src")importtms#对data文件夹下的binary_seged.train文件进行训练。
tms.tms_train(“../data/binary_seged.train”)#利用已经训练好的模型,对对data文件夹下的binary_seged.test文件预测tms.tms_predict(“../data/binary_seged.test”,”../model/tms.config”)#对预测的结果进行分析,评判模型的效果tms.tms_analysis(“../tms.result”)在命令行中调用#对data文件夹下的binary_seged.train文件进行训练。
$pythonauto_train.py[options]../data/binary_seged.train#利用已经训练好的模型,对对data文件夹下的binary_seged.test文件预测pythonpredict.py../data/binary_seged.train../model/tms.config#对预测的结果进行分析,评判模型的效果$pythonresult_anlaysis.py../tms.result上面的调用方式都是使用系统中默认的参数,更具体、灵活的参数见程序调用接口输入格式labelvalue1[value2]其中label是定义的类标签,如果是binaryclassification,建议positive样本为1,negative样本为-1。
如果为multi-classification。
label可以是任意的整数。
其中value为文本内容。
label和value以及value1和value2之间需要用特殊字符进行分割,如”\t”模型输出模型结果会放在指定保存路径下的“model”文件夹中,里面有3个文件,默认情况下为dic.key、tms.model和tms.config。
其中dic.key为特征选择后的词典;
tms.model为训练好的SVM分类模型;tms.config为模型的配置文件,里面记录了模型训练时使用的参数。
临时文件会放在“temp”文件夹中。
里面有两个文件:tms.param和tms.train。
其中tms.param为SVM模型参数选择时所实验的参数。
tms.train是供libsvm和liblinear训练器所使用的输入格式。
源程序说明src:即该系统的源代码,提供了5个可以在Linux下可以直接调用的程序:auto_train.py、train.py、predict.py为在Linux下通过命令行调用的接口。
tms.py为在程序中调用的主文件,直接通过importtms即可调用系统的所有函数。
其他文件为程序中实现各个功能的文件。
lsa_src:LSA模型的源程序。
dependence:系统所依赖的一些包。
包括libsvm、liblinear、Pymmseg在Linux32位和64位以及windows下的支持包(dll,so文件)。
tools:提供的一些有用的工具,包括result_analysis.py等。
java:java版本的模型预测程序,项目重要更新日志2012/09/21针对linux下的bug进行修正。
重新生成win和linux版本的。
2012/03/08增加stem模块,并修正了几个Bug。
2011/11/22tmsvm正式发布。
联系方式邮箱:zhzhl202@163.comThanks本系统引用了libsvm、liblinear的包,非常感谢Chih-JenLin写出这么优秀的软件。
本系统还引用了Pymmseg,非常感谢pluskid能为mmseg写出Python下可以直接使用的程序从最初的想法萌生到第一版上线,中间试验了很多算法,最终因为效果不好删掉了很多代码,在这期间得到了许多人的帮助,非常感谢杨铮、江洋、敏知、施平等人的悉心指导。
特别感谢丽红一直以来的默默支持。
2023/2/8 18:37:14 3.39MB 文本挖掘 tmSVM libSVM 支持向量机
1
2019年7月1日更新的全国列车时辰表,包含120723条数据。
字段名类型说明train_numvarchar(5)车次stop_numint到站顺序station_namevarchar(10)站名arrive_timetime到站时间depart_timetime离站时间train_typevarchar(5)列车类型资源navicat截图请到这个链接查看https://blog.csdn.net/qq_42783188/article/details/104733862
2023/2/8 13:46:50 6.03MB mysql
1
这个你懂的!!淘宝卖380RMB该火车时辰表数据从官方获取,包含当前开行的4143个车次的所有数据(车站,票价等),共44663条记录。
本站的时辰表数据库将不断更新,但由于数据量庞大,无法做到每次都及时更新,如需最新数据库请和本人联系。
近期受数据源变动的影响,数据库和数据处理程序重新开发,部分数据库字段有所调整,在此给您带来的不便表示歉意,敬请希望继续关注本站。
应广大网友的要求,调整后的数据库中增加了“里程”和“列车类型”字段,方便大家计算票价。
“票价”和“里程”字段改为数字类型,“历时”改为时间型,方便计算和统计。
数据库中车次和站序两个字段被设为联合主键,便于索引和查询。
对于动车和高铁来说,票价字段依次代表一等座、二等座和特等座,对于其他车次来说,票价字段依次代表硬座,硬卧,软座,软卧。
其中,详细的车次信息如下:C字头城际列车:160个车次D字头动车组: 958个车次G字头高速动车:523个车次Z字头直快列车:52个车次T字头特快列车:296个车次K字头快速列车:1220个车次普快列车:  845个车次Y字头旅游专列:6个车次L字头临时列车:48个车次Q字头列车:  3个车次S字头列车:  32个车次为了使数据冗余量和查询速度最优,所有的列车时辰数据均为一张表。
表结构如下:表:Train字段及数据类型:ID文本列车车次Type文本列车类型(普快,空调快速,动车…)S_No数字站序Station文本车站Day数字日期(当天,第2天,第3天)A_Time时间到达时间D_Time时间离开时间Distance数字里程P1数字硬座/一等座票价P2数字硬卧/二等座票价P3数字软座/特等座票价P4数字软卧票价数据库查询示例/*站站查询:从枣庄站到北京站的所有列车(两种不同方式的SQL语句)*/SelectT1.*FromTrainT1,TrainT2,TrainT3WhereT2.Station='枣庄'andT3.Station='北京'andT2.S_No<T3.S_NoandT2.ID=T3.IDandT1.ID=T2.IDSelect*FromTrainWhereIDin(SelectT1.IDFromTrainT1InnerJoinTrainT2onT1.ID=T2.IDWhereT1.Station='枣庄'andT2.Station='北京'andT1.S_No<T2.S_No)来自zhaoqi.org解压密码:Zhaoqi.Org
2018/7/13 22:14:05 5.63MB 列车时刻表
1
由复旦大学李荣陆提供。
收集工作花费了不少人力和物力,所以请大家在使用时尽量注明来源(复旦大学计算机信息与技术系国际数据库中心自然言语处理小组)。
train.zip为训练语料,共9804篇文档,分为20个类别。
answer.zip为训练语料,共9833篇文档,同为20个类别。
训练语料与测试语料基本按照1:1的比例来划分
2018/4/14 2:19:18 52.56MB NLP 文本分类 语料库 训练集
1
手写数字集MNIST运用matlab处理后得到的mnist_uint8.mat数据。
数据为uint8类型的图像像素数据,包含train_x,train_y,test_x,test_y,每项都是一行向量的方式存储的。
2017/2/23 12:32:55 11.29MB mnist
1
共 90 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡