故事书与魅力四射这是来自示例,这些示例被组织成一个故事书。
每个示例都包含一个带有说明的单独故事,并具有一个使用相同源代码的codesandbox.io链接在github页面上查看:用法如果您想玩这个例子:gitclonehttps://github.com/react-theming/glamorous-samples.gitcdglamorous-samplesnpminpmstart它将启动故事书。
在浏览器中打开在左侧面板中的故事列表中导航。
每个示例都有一个简短说明的注释和源文件的名称(位于src文件夹中)。
修改这些文件,以更好地了解诱人的作品。
2015/7/1 21:47:02 209KB demo examples storybook theming
1
该文件包括效果展示视频和训练生成的xml文件由于该方法要求负样本与场景相关,因此建议自己采集视频进行样本获取及后续处理,直接使用xml文件在其他场景的效果并不一定好。
本实验也有许多问题,①比如远处的检测框会较早的消失,这个原因应该是抽帧截取正样本时,远处的车辆样本选取的较少,建议新实验中每个位置上的正样本都要考虑到。
②偶尔会出现检测框消失的现象,这个没法避免的..建议使用卡尔曼滤波对消失的检测框进行预测然后校正!关于样本集会在后面半个月放出,最近事比较多,等开学会有点时间...本演示视频只对单一方向的车辆样本进行训练,并且包含了晴天多云雨天等场景的样本共同训练,正样本数量为4300多份。
如果想尝试双向车道的训练,建议正样本数量达到1w左右的量级,负样本为正样本的2-5倍,关于xml文件的训练参考文章XXX,也可以换成其他特征进行训练,如LBP特征(听说训练花费时间大大降低,精度差不多,并没有进行试验),有兴味的可以试一试,多多交流!
2019/2/6 19:12:18 2.83MB 车辆检测
1
共有七个完整算法%1.基于聚类的RBF网设计算法%一维输入,一维输出,逼近效果很好!SamNum=100;%总样本数TestSamNum=101;%测试样本数InDim=1;%样本输入维数ClusterNum=10;%隐节点数,即聚类样本数Overlap=1.0;%隐节点重叠系数%根据目标函数获得样本输入输出rand('state',sum(100*clock))NoiseVar=0.1;Noise=NoiseVar*randn(1,SamNum);SamIn=8*rand(1,SamNum)-4;SamOutNoNoise=1.1*(1-SamIn+2*SamIn.^2).*exp(-SamIn.^2/2);SamOut=SamOutNoNoise+Noise;TestSamIn=-4:0.08:4;TestSamOut=1.1*(1-TestSamIn+2*TestSamIn.^2).*exp(-TestSamIn.^2/2);figureholdongridplot(SamIn,SamOut,'k+')plot(TestSamIn,TestSamOut,'r--')xlabel('Inputx');ylabel('Outputy');Centers=SamIn(:,1:ClusterNum);NumberInClusters=zeros(ClusterNum,1);%各类中的样本数,初始化为零IndexInClusters=zeros(ClusterNum,SamNum);%各类所含样本的索引号while1,NumberInClusters=zeros(ClusterNum,1);%各类中的样本数,初始化为零IndexInClusters=zeros(ClusterNum,SamNum);%各类所含样本的索引号%按最小距离原则对所有样本进行分类fori=1:SamNumAllDistance=dist(Centers',SamIn(:,i));[MinDist,Pos]=min(AllDistance);NumberInClusters(Pos)=NumberInClusters(Pos)+1;IndexInClusters(Pos,NumberInClusters(Pos))=i;end%保存旧的聚类中心OldCenters=Centers;fori=1:ClusterNumIndex=IndexInClusters(i,1:NumberInClusters(i));Centers(:,i)=mean(SamIn(:,Index)')';end%判断新旧聚类中心能否一致,是则结束聚类EqualNum=sum(sum(Centers==OldCenters));ifEqualNum==InDim*ClusterNum,break,endend%计算各隐节点的扩展常数(宽度)AllDistances=dist(Centers',Centers);%计算隐节点数据中心间的距离(矩阵)Maximum=max(max(AllDistances));%找出其中最大的一个距离fori=1:ClusterNum%将对角线上的0替换为较大的值AllDistances(i,i)=Maximum+1;endSpreads=Overlap*min(AllDistances)';%以隐节点间的最小距离作为扩展常数%计算各隐节点的输出权值Distance=dist(Centers',SamIn);%计算各样本输入离各数据中心的距离SpreadsMat=repmat(Spreads,1,SamNum);HiddenUnitOut=radbas(Distance./SpreadsMat);%计算隐节点输出阵HiddenUnitOutEx=[HiddenUnitOut'ones(SamNum,1)]';%考虑偏移W2Ex=SamOut*pinv(HiddenUnitOutEx);%求广义输出权值W2=W2Ex(:,1:ClusterNum);%输出权值B2=W2Ex(:,ClusterNum+1)
2017/4/12 3:58:08 8KB rbf算法源程序
1
#语料库阐明------------------------------------------------------------------------##词典1、HowNet情感词典2、ntusd情感词典3、情感分析停用词表4、结巴分词自定义词典5、常用语词典,包括流行新词,网络流行词,手机词汇,粤语,潮语潮词、阿里巴巴-通讯产品词汇等##手机评论数据1、HTC手机评论,包括打分,共302篇1-52、魅族手机评论,包括打分,共529篇1-53、诺基亚手机评论,包括打分,共614篇1-54、OPPO手机评论,包括打分1-5,共553篇5、三星手机评论,包括打分1-5,共762篇6、中兴手机评论,包括打分1-5,共785篇7、摩托罗拉手机评论,包括打分1-5,共990篇8、整合:正面评论1084篇,负面评论524篇##淘宝商品评论数据1、正面评论一万篇,负面评论一万篇2、待预测的语料一万篇##2012微博情感分析数据共三个任务,数据集来自腾讯微博,每个话题1,000条,总约两万条微博1、观点句与非观点句的判别2、情感分类3、情感要素抽取##谭松波酒店评论语料正负样本不平衡,正样本7,000,负样本3000,共10,000.##酒店、服装、水果、平板、洗发水正负样本均5,000,总样本数50,000
2015/3/9 14:02:03 12.81MB 中文语料 情感分析 数据集
1
本OLED程序例程包含了C51_IIC例程,使用keil软件开发环境,程序正文完整详细,可作为学习及参考的样本
2019/11/24 16:16:26 53KB C51 OLED 例程 STC89C52
1
本文件中包含了车牌识别中所需求的数字和字母样本集,样本个数多,图片清晰。
2017/9/17 10:02:13 9.32MB 车牌识别
1
LFW-a数据集子集mat文件,曾经做cropped处理切割人脸部分,并且resize成了30x15的大小。
只包含样本个数大于等于20的类别。
fea为样本矩阵,每行一个样本,gnd为类别标签。
2020/1/4 10:48:50 1.19MB LFW数据库 人脸识别
1
万能合同生成软件,可以生成任何合异样本。
2018/10/11 12:45:56 8.19MB 合同书
1
深度学习常用数据集之一,fashion-mnist数据集,可看成是mnist数据集的晋级版,数据的属性和mnist数据集一样(测试集和训练集的样本数)
2021/4/17 21:30:50 34.62MB 深度学习
1
共 560 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡