代码解释的详细,可以直接用,已经测试过了,很好用。
2024/7/16 0:25:47 379KB 很有用
递归神经网络(RNN)是两种人工神经网络的总称。
一种是时间递归神经网络(recurrentneuralnetwork),又名循环神经网络,另一种是结构递归神经网络(recursiveneuralnetwork)。
时间递归神经网络的神经元间连接构成矩阵,而结构递归神经网络利用相似的神经网络结构递归构造更为复杂的深度网络。
RNN一般指代时间递归神经网络。
单纯递归神经网络因为无法处理随着递归,权重指数级爆炸或消失的问题(Vanishinggradientproblem),难以捕捉长期时间关联;
而结合不同的LSTM可以很好解决这个问题。
2024/7/15 12:55:12 16.51MB 深度学习
ICEPAK学习资料,主要用ICEPAK学习,提高热仿真分析能力,提高产品可靠性。
对结构设计工作起到较大的指导作用。
2024/7/15 3:13:36 15.14MB ICEPAK
machine_learning(PCA+SVM_face).rar
2024/7/15 1:13:14 14.84MB 掌纹识别、掌纹分类
用于非侵入式电荷负载分解的REDD数据集分享,本数据集包含了第二个house的所有数据,数据的格式为.dat格式,需要自己对其进行处理
2024/7/14 3:48:23 18.26MB 数据集
MNIST数据集是一个手写识别数据集,机器学习基础的数据集,并且非常多的教程都用它进行分类训练和学习
2024/7/13 1:43:03 13.6MB 人工智能 机器学习 数据
袁博数据挖掘上课PPT,项亮的推荐系统实战PDF。
袁博的课程深入浅出,很适合有志从事数据挖掘的爱好者奠定算法基础
2024/7/12 22:44:30 54.54MB 数据挖掘 推荐系统
中鸣机器人寻线代码,设计转弯,左转,右转等代码,针对比赛使用性非常强
2024/7/8 5:51:36 268KB 寻线代码 左转 右转
JavaSwing帮助文档
2024/7/8 5:07:23 3.72MB java swing
牛顿迭代法(Newton'smethod)又称为牛顿-拉夫逊方法(Newton-Raphsonmethod),它是牛顿在17世纪提出的一种在实数域和复数域上近似求解方程的方法。
多数方程不存在求根公式,因此求精确根非常困难,甚至不可能,从而寻找方程的近似根就显得特别重要。
方法使用函数f(x)的泰勒级数的前面几项来寻找方程f(x)=0的根。
牛顿迭代法是求方程根的重要方法之一,其最大优点是在方程f(x)=0的单根附近具有平方收敛,而且该法还可以用来求方程的重根、复根。
设r是f(x)=0的根,选取x0作为r初始近似值,过点(x0,f(x0))做曲线y=f(x)的切线L,L的方程为y=f(x0)+f'(x0)(x-x0),求出L与x轴交点的横坐标x1=x0-f(x0)/f'(x0),称x1为r的一次近似值。
过点(x1,f(x1))做曲线y=f(x)的切线,并求该切线与x轴的横坐标x2=x1-f(x1)/f'(x1),称x2为r的二次近似值。
重复以上过程,得r的近似值序列,其中x(n+1)=x(n)-f(x(n))/f'(x(n)),称为r的n+1次近似值,上式称为牛顿迭代公式。
解非线性方程f(x)=0的牛顿法是把非线性方程线性化的一种近似方法。
把f(x)在x0点附近展开成泰勒级数f(x)=f(x0)+(x-x0)f'(x0)+(x-x0)^2*f''(x0)/2!+…取其线性部分,作为非线性方程f(x)=0的近似方程,即泰勒展开的前两项,则有f(x0)+f'(x0)(x-x0)=f(x)=0设f'(x0)≠0则其解为x1=x0-f(x0)/f'(x0)这样,得到牛顿法的一个迭代序列:x(n+1)=x(n)-f(x(n))/f'(x(n))。
2024/7/8 5:37:40 1.13MB 算法
共 1000 条记录 首页 上一页 下一页 尾页