本算法完成了IDW和RBF算法,执行界面可参考我的博客。
2015/4/21 19:58:11 7.02MB QT IDW RBF 图像变形
1
优点——RBF神经网络有很强的非线性拟合能力,可映射任意复杂的非线性关系,而且学习规则简单,便于计算机实现。
具有很强的鲁棒性、记忆能力、非线性映射能力以及强大的自学习能力,因此在彩票等非线性大数据分析预测方面,有着很大的应用市场。
具有局部逼近的优点RBF神经网络是一种功能优良的前馈型神经网络,RBF网络可以任意精度逼近任意的非线性函数,且具有全局逼近能力,从根本上解决了BP网络的局部最优问题,而且拓扑结构紧凑,结构参数可实现分离学习,收敛速度快。
只要在MATLAB(R2014b)平台上,通过运行径向基神经网络“RBF_SSQ”就可以快速预测。
预测系统推荐两注(参数可修改),单注可每号+-1,最多可12个号复试;
也可直接单注投注。
单注中奖率一般在2个以上,复试一般在4-6个红球。
预测可靠性远远高于网络彩票预测机构的水准。
2022/10/9 15:27:37 184KB 彩票预测
1
RBF神经网络用于函数的拟合,实践运用效果不错!
2015/7/24 17:24:04 911B RBF函数拟合
1
GA优化后的RBF神经网络,带无数据可以仿真。
比较测试未用GA算法优化的RBF网络和用GA算法优化的RBF网络逼近能力。
利用GA算法来优化RBF网络中的各种权值。
2022/9/26 9:01:32 3KB RBF GA
1
共有七个完整算法%1.基于聚类的RBF网设计算法%一维输入,一维输出,逼近效果很好!SamNum=100;%总样本数TestSamNum=101;%测试样本数InDim=1;%样本输入维数ClusterNum=10;%隐节点数,即聚类样本数Overlap=1.0;%隐节点重叠系数%根据目标函数获得样本输入输出rand('state',sum(100*clock))NoiseVar=0.1;Noise=NoiseVar*randn(1,SamNum);SamIn=8*rand(1,SamNum)-4;SamOutNoNoise=1.1*(1-SamIn+2*SamIn.^2).*exp(-SamIn.^2/2);SamOut=SamOutNoNoise+Noise;TestSamIn=-4:0.08:4;TestSamOut=1.1*(1-TestSamIn+2*TestSamIn.^2).*exp(-TestSamIn.^2/2);figureholdongridplot(SamIn,SamOut,'k+')plot(TestSamIn,TestSamOut,'r--')xlabel('Inputx');ylabel('Outputy');Centers=SamIn(:,1:ClusterNum);NumberInClusters=zeros(ClusterNum,1);%各类中的样本数,初始化为零IndexInClusters=zeros(ClusterNum,SamNum);%各类所含样本的索引号while1,NumberInClusters=zeros(ClusterNum,1);%各类中的样本数,初始化为零IndexInClusters=zeros(ClusterNum,SamNum);%各类所含样本的索引号%按最小距离原则对所有样本进行分类fori=1:SamNumAllDistance=dist(Centers',SamIn(:,i));[MinDist,Pos]=min(AllDistance);NumberInClusters(Pos)=NumberInClusters(Pos)+1;IndexInClusters(Pos,NumberInClusters(Pos))=i;end%保存旧的聚类中心OldCenters=Centers;fori=1:ClusterNumIndex=IndexInClusters(i,1:NumberInClusters(i));Centers(:,i)=mean(SamIn(:,Index)')';end%判断新旧聚类中心能否一致,是则结束聚类EqualNum=sum(sum(Centers==OldCenters));ifEqualNum==InDim*ClusterNum,break,endend%计算各隐节点的扩展常数(宽度)AllDistances=dist(Centers',Centers);%计算隐节点数据中心间的距离(矩阵)Maximum=max(max(AllDistances));%找出其中最大的一个距离fori=1:ClusterNum%将对角线上的0替换为较大的值AllDistances(i,i)=Maximum+1;endSpreads=Overlap*min(AllDistances)';%以隐节点间的最小距离作为扩展常数%计算各隐节点的输出权值Distance=dist(Centers',SamIn);%计算各样本输入离各数据中心的距离SpreadsMat=repmat(Spreads,1,SamNum);HiddenUnitOut=radbas(Distance./SpreadsMat);%计算隐节点输出阵HiddenUnitOutEx=[HiddenUnitOut'ones(SamNum,1)]';%考虑偏移W2Ex=SamOut*pinv(HiddenUnitOutEx);%求广义输出权值W2=W2Ex(:,1:ClusterNum);%输出权值B2=W2Ex(:,ClusterNum+1)
2017/4/12 3:58:08 8KB rbf算法源程序
1
RBF神经网络和BP神经网络的C++完成算法
2016/2/7 22:47:55 109KB RBF 神经网络 C++ 源码
1
学习神经网络及深度学习实战代码.本书共有43章,内容涵盖常见的神经网络(BP、RBF、SOM、Hopfield、Elman、LVQ、Kohonen、GRNN、NARX等)以及相关智能算法(SVM、决策树、随机森林、极限学习机等)。
同时,部分章节也涉及了常见的优化算法(遗传算法、蚁群算法等)与神经网络的结合问题。
此外,本书还引见了MATLABR2012b中神经网络工具箱的新增功能与特性,如神经网络并行计算、定制神经网络、神经网络高效编程等
2016/4/23 14:32:25 63.59MB 神经网络
1
《MATLAB神经网络43个案例分析》是在《MATLAB神经网络30个案例分析》的基础上修改、补充而成的,秉承着“理论讲解—案例分析—应用扩展”这一特色,帮助读者愈加直观、生动地学习神经网络。
《MATLAB神经网络43个案例分析》共有43章,内容涵盖常见的神经网络(BP、RBF、SOM、Hopfield、Elman、LVQ、Kohonen、GRNN、NARX等)以及相关智能算法(SVM、决策树、随机森林、极限学习机等)。
同时,部分章节也涉及了常见的优化算法(遗传算法、蚁群算法等)与神经网络的结合问题。
此外,《MATLAB神经网络43个案例分析》还介绍了MATLABR2012b中神经网络工具箱的新增功能与特性,如神经网络并行计算、定制神经网络、神经网络高效编程等。
使用《MATLAB神经网络43个案例分析》时,建议读者按照“先通读章节内容,后调试程序,再精读章节内容”的顺序学习。
《MATLAB神经网络43个案例分析》程序建议在MATLABR2009a及以上版本环境下运行。
若在程序调试过程中有任何疑问,建议先在论坛书籍答疑版块搜索相关答案,然后再发帖与作者交流。
《MATLAB神经网络43个案例分析》可作为高等学校相关专业学生本科毕业设计、研究
2022/9/19 22:09:06 61.13MB MATLAB
1
一个RBF神经网络的算法完成程序,可用于完成RBF神经网络的函数逼近
2017/5/25 16:37:30 946B RBF 神经网络
1
利用RBF网络(隐含层神经单元个数和学习率等参数可在内部修改,不作为输入参数)学习和训练,并对输入的测试样本做出响应。
输入和输出维数可以多维。
实际运转,逼近y=sin(t)函数效果不错。
2021/3/5 12:33:36 2KB RBF;MATLAB
1
共 135 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡