深度学习的不雅点源于家养神经收集的钻研。
含多隐层的多层感知器便是一种深度学习结构。
深度学习经由组合低层特色组成愈加笼统的高层展现属性种别或者特色,以发现数据的漫衍式特色展现。
深度学习的不雅点由Hinton等人于2006年提出。
基于深信度网(DBN)提出非把守贪心逐层熬炼算法,为处置深层结构相关的优化难题带来阻滞,随后提出多层自动编码器深层结构。
另外Lecun等人提出的卷积神经收集是第一个真正多层结构学习算法,它行使空间相对于关连削减参数数目以普及熬炼成果。
深度学习是机械学习钻研中的一个新的规模,其成果在于建树、模拟人脑举行阐发学习的神经收集,它模拟人脑的机制来评释数据,譬如图像,声音以及文本。
同机械学习方式同样,深度机械学习方式也有把守学习与无把守学习之分.不合的学习框架下建树的学习模子颇为不合.譬如,卷积神经收集(Convolutionalneuralnetworks,简称CNNs)便是一种深度的把守学习下的机械学习模子,而深度信托网(DeepBeliefNets,简称DBNs)便是一种无把守学习下的机械学习模子。
2023/4/8 19:20:38 107KB 人工智能
1
深度学习之卷积神经收集CNN做手写体识另外VS代码。
反对于linux版本以及VS2012版本。
tiny-cnn:AC++11implementationofconvolutionalneuralnetworks========tiny-cnnisaC++11implementationofconvolutionalneuralnetworks.designprinciple-----*fast,withoutGPU98.8%accuracyonMNISTin13minutestraining(@Corei7-3520M)*headeronly,policy-baseddesignsupportednetworks-----###layer-types*fully-connectedlayer*convolutionallayer*averagepoolinglayer###activationfunctions*tanh*sigmoid*rectifiedlinear*identity###lossfunctions*cross-entropy*mean-squared-error###optimizationalgorithm*stochasticgradientdescent(with/withoutL2normalization)*stochasticgradientlevenbergmarquardtdependencies-----*boostC++library*IntelTBBsamplecode------```cpp#include"tiny_cnn.h"usingnamespacetiny_cnn;//specifyloss-functionandoptimization-algorithmtypedefnetworkCNN;//tanh,32x32input,5x5window,1-6feature-mapsconvolutionconvolutional_layerC1(32,32,5,1,6);//tanh,28x28input,6feature-maps,2x2subsamplingaverage_pooling_layerS2(28,28,6,2);//fully-connectedlayersfully_connected_layerF3(14*14*6,120);fully_connected_layerF4(120,10);//connectallCNNmynet;mynet.add(&C1);mynet.add(&S2);mynet.add(&F3);mynet.add(&F4);assert(mynet.in_dim()==32*32);assert(mynet.out_dim()==10);```moresample,readmain.cppbuildsampleprogram------###gcc(4.6~)withouttbb./wafconfigure--BOOST_ROOT=your-boost-root./wafbuildwithtbb./wafconfigure--TBB--TBB_ROOT=your-tbb-root--BOOST_ROOT=your-boost-root./wafbuildwithtbbandSSE/AVX./wafconfigure--AVX--TBB--TBB_ROOT=your-tbb-root--BOOST_ROOT=your-boost-root./wafbuild./wafconfigure--SSE--TBB--TBB_ROOT=your-tbb-root--BOOST_ROOT=your-boost-root./wafbuildoreditinlude/co
2023/4/7 20:45:08 10.29MB 深度学习 卷积神经网络 CNN VS
1
该文件用于制作MMS-GPU的镜像,患上到的镜像可用于种种基于mxnet+gpu框架的深度学习的推理。
2023/4/7 6:03:06 610.61MB mxnet docker
1
深度学习的不雅点源于家养神经收集的钻研。
含多隐层的多层感知器便是一种深度学习结构。
2023/4/5 23:16:53 47.03MB 深度学习 tensorflow
1
天生相持收集(GAN)实例代码+数据集很适用的代码,并且约莫易学,对于深度学习感兴趣的能够看看数据集有手写图片的识别,也能够交流资源人的数据集
2023/4/4 6:48:14 11.06MB GAN 图像处理 生成对抗网络
1
一本2015年出书的英文书籍,详尽介绍了深度学习在语音识别中的使用,阻滞对于钻研深度学习以及语音识另外朋友有帮手。
2023/4/1 19:40:05 7.53MB 深度学习
1
深度学习源代码,hinton论文附带源代码,搜罗图像编码息争码两部份。
经由熬炼深层收集降维高位图片数据,并比力规复倾向。
首要行使级联Boltzmann估量多层收集初始参数,使许多层神经收集能够被很好的熬炼并患上到梦想下场。
2023/4/1 1:14:36 11.07MB 深度学习
1
使用CycleGAN举行图像域转换:用于图像域转换的深度学习的MATLAB示例
2023/4/1 0:42:17 44.81MB deep-neural-networks example matlab deeplearning
1
MATLABVGG19离线装置库,深度学习,家养智能,用的
2023/3/31 1:52:25 388KB MATLAB VGG19 深度学习
1
yolo代码实现,参考吴恩达深度学习课程举行学习,齐全需要的代码
2023/3/30 15:01:23 34.17MB yolo
1
共 665 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡