elm回归及分类:ELM是一种简单易用、有效的单隐层前馈神经网络SLFNs学习算法。
2004年由南洋理工大学黄广斌副教授提出。
传统的神经网络学习算法(如BP算法)需要人为设置大量的网络训练参数,并且很容易产生局部最优解。
极限学习机只需要设置网络的隐层节点个数,在算法执行过程中不需要调整网络的输入权值以及隐元的偏置,并且产生唯一的最优解,因此具有学习速度快且泛化性能好的优点。
2024/7/1 18:12:12 9KB elm
1
前馈神经网络详细的原理推导,算法流程已经对应的matlab代码
2024/6/13 14:21:15 702KB 前馈神经网络 Matlab 实现
1
敏感度分析(前馈神经网络模型)
2024/5/2 4:31:54 685B 敏感度
1
卷积神经网络python实现。
卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积或相关计算且具有深度结构的前馈神经网络(FeedforwardNeuralNetworks),是深度学习(deeplearning)的代表算法之一[1-2]。
由于卷积神经网络能够进行平移不变分类(shift-invariantclassification),因此也被称为“平移不变人工神经网络(Shift-InvariantArtificial
2024/4/12 15:49:47 31KB python 卷积 神经网络实现
1
对数据降维,进一步精选数据,ELM最大的特点是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。
内部附有两类样本数据可供使用。
2024/3/7 18:38:05 18.06MB 对数据降维
1
由于神经网络具有拟合非线性的能力,所以可以用神经网络来处理内部模型的非线性特性,因此这种内部模型采用神经网络的非线性PLS方法得到了广泛的应用。
传统的前馈神经网络在训练中采用梯度学习算法,网络中的参数需要迭代更新,不仅训练时间长,而且容易导致局部极小和过度训练等问题,另外其多隐层的结构也导致了样本训练速度慢,训练误差大"此外,Bartlett提出对于已达到最小训练误差的前馈神经网络,权值越小泛化特性越好,而传统的梯度学习算法仅仅考虑训练误差最小,忽视了权值大小对网络的影响,这些问题都将影响到模型的泛化特性。
2024/3/4 2:50:15 16KB elm&pls
1
本文来自csdn,文章先来卷积神经网络和全连接神经网络对比,接着让我们直观理解卷积,卷积计算流程,结合案例进行相关的介绍。
卷积神经网络(ConvolutionalNeuralNetwork,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。
它包括卷积层(convolutionallayer)和池化层(poolinglayer)。
对比:卷积神经网络、全连接神经网络左图:全连接神经网络(平面),组成:输入层、激活函数、全连接层右图:卷积神经网络(立体),组成:输入层、卷积层、激活函数、池化层、全连接层在卷积神经网络中有一个重要的概念:深度卷积
1
BP算法改进及在MATLAB上的实现-BP算法的改进及其在Matlab上的实现.pdf针对BP算法这种当前前馈神经网络训练中应用最多的算法进行改进,并在MATLAB中实现。
2023/8/3 1:38:31 335KB matlab
1
第一章人工神经网络…………………………………………………3§1.1人工神经网络简介…………………………………………………………31.1人工神经网络的起源……………………………………………………31.2人工神经网络的特点及应用……………………………………………3§1.2人工神经网络的结构…………………………………………………42.1神经元及其特性…………………………………………………………52.2神经网络的基本类型………………………………………………62.2.1人工神经网络的基本特性……………………………………62.2.2人工神经网络的基本结构……………………………………62.2.3人工神经网络的主要学习算法………………………………7§1.3人工神经网络的典型模型………………………………………………73.1Hopfield网络…………………………………………………………73.2反向传播(BP)网络……………………………………………………83.3Kohonen网络…………………………………………………………83.4自适应共振理论(ART)……………………………………………………93.5学习矢量量化(LVQ)网络…………………………………………11§1.4多层前馈神经网络(BP)模型…………………………………………124.1BP网络模型特点 ……………………………………………………124.2BP网络学习算法………………………………………………………134.2.1信息的正向传递………………………………………………134.2.2利用梯度下降法求权值变化及误差的反向传播………………144.3网络的训练过程………………………………………………………154.4BP算法的改进………………………………………………………154.4.1附加动量法………………………………………………………154.4.2自适应学习速率…………………………………………………164.4.3动量-自适应学习速率调整算法………………………………174.5网络的设计………………………………………………………………174.5.1网络的层数…………………………………………………174.5.2隐含层的神经元数……………………………………………174.5.3初始权值的选取………………………………………………174.5.4学习速率…………………………………………………………17§1.5软件的实现………………………………………………………………18第二章遗传算法………………………………………………………19§2.1遗传算法简介………………………………………………………………19§2.2遗传算法的特点…………………………………………………………19§2.3遗传算法的操作程序………………………………………………………20§2.4遗传算法的设计……………………………………………………………20第三章基于神经网络的水布垭面板堆石坝变形控制与预测§3.1概述…………………………………………………………………………23§3.2样本的选取………………………………………………………………24§3.3神经网络结构的确定………………………………………………………25§3.4样本的预处理与网络的训练……………………………………………254.1样本的预处理………………………………………………………254.2网络的训练……………………………………………………26§3.5水布垭面板堆石坝垂直压缩模量的控制与变形的预测…………………305.1面板堆石坝堆石体垂直压缩模量的控制……………………………305.2水布垭面板堆石坝变形的预测……………………………………355.3BP网络与COPEL公司及国内的经验公式的预测结果比较…35§3.6结论与建议………………………………………………………………38第四章BP网络与遗传算法在面板堆石坝设计参数控制中的应用§4.1概述………………………………………………………………………39§4.2遗传算法的程序设计与计算………………………………………………39§4.3结论与建议…………………………………………………………………40参考文献…………………………………………………………………………
2023/8/2 9:24:30 1.66MB 人工神经网络
1
神经网络灵敏度分析对网络结构设计、硬件实现等具有重要的指点意义,已有的灵敏度计算公式对权值和输入扰动有一定限制或者计算误差较大。
基于Piché的随机模型,通过使用两个逼近函数对神经网络一类Sigmoid激活函数进行高精度逼近,获得了新的神经网络灵敏度计算公式,公式取消了对权值扰动和输入扰动的限制,与其他方法相比提高了计算精度,实验证明了公式的正确性和精确性。
2022/9/17 15:43:31 965KB 论文研究
1
共 12 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡