深度学习之卷积神经收集CNN做手写体识另外VS代码。
反对于linux版本以及VS2012版本。
tiny-cnn:AC++11implementationofconvolutionalneuralnetworks========tiny-cnnisaC++11implementationofconvolutionalneuralnetworks.designprinciple-----*fast,withoutGPU98.8%accuracyonMNISTin13minutestraining(@Corei7-3520M)*headeronly,policy-baseddesignsupportednetworks-----###layer-types*fully-connectedlayer*convolutionallayer*averagepoolinglayer###activationfunctions*tanh*sigmoid*rectifiedlinear*identity###lossfunctions*cross-entropy*mean-squared-error###optimizationalgorithm*stochasticgradientdescent(with/withoutL2normalization)*stochasticgradientlevenbergmarquardtdependencies-----*boostC++library*IntelTBBsamplecode------```cpp#include"tiny_cnn.h"usingnamespacetiny_cnn;//specifyloss-functionandoptimization-algorithmtypedefnetworkCNN;//tanh,32x32input,5x5window,1-6feature-mapsconvolutionconvolutional_layerC1(32,32,5,1,6);//tanh,28x28input,6feature-maps,2x2subsamplingaverage_pooling_layerS2(28,28,6,2);//fully-connectedlayersfully_connected_layerF3(14*14*6,120);fully_connected_layerF4(120,10);//connectallCNNmynet;mynet.add(&C1);mynet.add(&S2);mynet.add(&F3);mynet.add(&F4);assert(mynet.in_dim()==32*32);assert(mynet.out_dim()==10);```moresample,readmain.cppbuildsampleprogram------###gcc(4.6~)withouttbb./wafconfigure--BOOST_ROOT=your-boost-root./wafbuildwithtbb./wafconfigure--TBB--TBB_ROOT=your-tbb-root--BOOST_ROOT=your-boost-root./wafbuildwithtbbandSSE/AVX./wafconfigure--AVX--TBB--TBB_ROOT=your-tbb-root--BOOST_ROOT=your-boost-root./wafbuild./wafconfigure--SSE--TBB--TBB_ROOT=your-tbb-root--BOOST_ROOT=your-boost-root./wafbuildoreditinlude/co
2023/4/7 20:45:08 10.29MB 深度学习 卷积神经网络 CNN VS
1
DavidSilver强化学习课程文件Lecture1:IntroductiontoReinforcementLearningLecture2:MarkovDecisionProcessesLecture3:PlanningbyDynamicProgra妹妹ingLecture4:Model-FreePredictionLecture5:Model-FreeControlLecture6:ValueFunctionApproximationLecture7:PolicyGradientMethodsLecture8:IntegratingLearningandPlanningLecture9:ExplorationandExploitationLecture10:CaseStudy:RLinClassicGames
2023/3/31 14:34:19 14.77MB David Silver 强化学习
1
关于DQN的两种版本(使用stop_gradient与不使用stop_gradient)对不起.....我不晓得怎么将文件放到CSDN博客中下载,所以只能放这边了,没有资源分为0的选项.....
2016/10/26 8:52:57 23KB 深度强化学习
1
神经网络学习算法,包括GradientDescent,Momentum,Adagrad,RMSprop,Adam优化方法,matlab程序
2017/7/23 9:43:20 4KB 学习算法 深度学习 人工智能
1
经典论文《HistogramsofOrientedGradientsforHumanDetection》的解读,内附一小段示例代码(Python),著名的HOG方式就源于这篇论文
2020/2/14 21:15:08 948KB hog
1
基于论文ACCURATEEYECENTRELOCALISATIONBYMEANSOFGRADIENTS的matlab完成,或者说是eyelike的matlab版
2017/8/22 20:40:10 32KB MeanO
1
MatrixCompletionfromaFewEntriesOptSpace-AGradientDescentAlgorithmontheGrassmanManifoldforMatrixCompletion源码
2018/11/17 22:40:45 16KB OptSpace
1
(含源码及报告)本程序分析了自2016年到2021年(外加)每年我国原油加工的产量,并且分析了2020年全国各地区原油加工量等,含饼状图,柱状图,折线图,数据在地图上显示。
运转本程序需要requests、bs4、csv、pandas、matplotlib、pyecharts库的支持,如果缺少某库请自行安装后再运转。
文件含6个excel表,若干个csv文件以及一个名字为render的html文件(需要用浏览器打开),直观的数据处理部分是图片以及html文件,可在地图中显示,数据处理的是excel文件。
不懂可以扫文件中二维码在QQ里面问。
2022/9/30 16:31:44 29.75MB 爬虫 python 源码软件 开发语言
1
AnEfficientPrimal-DualHybridGradientAlgorithmForTotalVariationImageRestoration一种高效的全变差图像恢复的原始-对偶混淆梯度算法
2019/11/15 15:52:06 4.37MB 优化算法 图像处理 TV
1
Anoverviewofgradientdescentoptimizationalgorithms
2019/7/22 7:10:43 2.36MB 算法
1
共 31 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡