首先确定被评价对象的因素(指标)集和评价(等级)集;
再分别确定各个因素的权重及它们的隶属度向量,获得模糊评判矩阵;
最后把模糊评判矩阵与因素的权向量进行模糊运算并进行归一化,得到模糊综合评价结果
2025/8/3 7:40:25 3KB 模糊综合评判 matlab
1
tensorflow版本的resnet代码,以最简化的方式构建。
可以适用于各种网络的结构的变形,另外提供预训练tensorflow版本的预训练权重,由于上传文件限制,下载好代码之后:https://pan.baidu.com/s/1Kuvad3P9gn39vyONL2glZg这里下载各个层数的预训练模型
2025/7/21 5:45:46 619KB tensorflow resnet pre-train
1
基于曼哈顿距离权重的Astar算法的单AGV路径规划(C#版),并对Astar算法的运行时间进行可视化显示。
2025/7/16 14:41:43 77KB AGV Astar C#
1
因为自己需要将CornerNet的权重上传过来,自己用而已,官网有下载链接
2025/7/9 11:39:05 767.57MB Cornne
1
yolo算法权重yolo算法权重yolo算法权重yolo算法权重
2025/7/3 9:25:24 194.69MB yolo.h5 算法权重
1

误差反向传播(Backpropagation,简称BP)是深度学习领域中最常见的训练人工神经网络(Artificial Neural Network,ANN)的算法。
它主要用于调整网络中权重和偏置,以最小化预测结果与实际值之间的误差。
在本项目中,我们看到的是如何利用BP算法构建一个两层神经网络来识别MNIST手写数字数据集。
MNIST数据集包含60,000个训练样本和10,000个测试样本,每个样本都是28x28像素的灰度图像,代表0到9的手写数字。
BP算法通过迭代过程,对每个样本进行前向传播计算预测结果,并使用梯度下降优化方法更新权重,以提高模型在训练集上的表现。
文件"bp_two_layer_net.py"可能包含了实现BP算法的主体代码,它定义了网络结构,包括输入层、隐藏层和输出层。
"net_layer.py"可能是定义神经网络层的模块,包括前向传播和反向传播的函数。
"train_bp_two_neuralnet.py"很可能是训练脚本,调用前面的网络和训练数据,执行多次迭代以优化权重。
"buy_orange_apple.py"、"layer_naive.py"、"gradient_check.py"和"buy_apple.py"这四个文件的名称看起来与主题不太直接相关,但它们可能是辅助代码或者示例程序。
"buy_orange_apple.py"可能是一个简单的决策问题,用于帮助理解基本的逻辑操作;
"layer_naive.py"可能包含了一个基础的神经网络层实现,没有使用高级库;
"gradient_check.py"可能是用来验证反向传播计算梯度正确性的工具,这对于调试深度学习模型至关重要;
而"buy_apple.py"可能是另一个类似的小示例,用于教学或练习目的。
在BP算法中,计算图的概念很重要。
计算图将计算过程表示为一系列节点和边,节点代表操作,边代表数据。
在反向传播过程中,通过计算图的反向遍历,可以高效地计算出每个参数对损失函数的影响,从而更新参数。
在深度学习中,神经网络的优化通常依赖于梯度下降算法,它根据梯度的方向和大小来更新权重。
对于大型网络,通常采用随机梯度下降(Stochastic Gradient Descent, SGD)或其变种,如动量SGD、Adam等,以提高训练速度和避免局部最优。
总结来说,这个项目涉及了误差反向传播算法在神经网络中的应用,特别是在解决MNIST手写数字识别问题上的实践。
通过理解和实现这些文件,我们可以深入理解BP算法的工作原理,以及如何在实际问题中构建和训练神经网络。
同时,它也展示了计算图和梯度检查在深度学习模型开发中的关键作用。
2025/6/15 20:24:19 5KB
1
yolov3Tiny的cfg配置文件以及weights文件,测试帧数达到40+,精度高
2025/6/10 19:19:13 31.34MB ML
1
ultralytics/yolov5,官方预训练权重yolov5x.pt,从drive.google下载下来的
2025/6/4 22:27:51 183.36MB yolo yolov5 目标检测 训练模型
1
SSD预训练的权重文件。















2025/5/19 11:27:45 98.38MB SSD300
1
BAT机器学习面试1000题系列1前言1BAT机器学习面试1000题系列21归一化为什么能提高梯度下降法求解最优解的速度?222归一化有可能提高精度223归一化的类型231)线性归一化232)标准差标准化233)非线性归一化2335.什么是熵。
机器学习ML基础易27熵的引入273.1无偏原则2956.什么是卷积。
深度学习DL基础易38池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n)40随机梯度下降46批量梯度下降47随机梯度下降48具体步骤:50引言721.深度有监督学习在计算机视觉领域的进展731.1图像分类(ImageClassification)731.2图像检测(ImageDection)731.3图像分割(SemanticSegmentation)741.4图像标注–看图说话(ImageCaptioning)751.5图像生成–文字转图像(ImageGenerator)762.强化学习(ReinforcementLearning)773深度无监督学习(DeepUnsupervisedLearning)–预测学习783.1条件生成对抗网络(ConditionalGenerativeAdversarialNets,CGAN)793.2视频预测824总结845参考文献84一、从单层网络谈起96二、经典的RNN结构(NvsN)97三、NVS1100四、1VSN100五、NvsM102RecurrentNeuralNetworks105长期依赖(Long-TermDependencies)问题106LSTM网络106LSTM的核心思想107逐步理解LSTM108LSTM的变体109结论110196.L1与L2范数。
机器学习ML基础易163218.梯度下降法的神经网络容易收敛到局部最优,为什么应用广泛?深度学习DL基础中178@李振华,https://www.zhihu.com/question/68109802/answer/262143638179219.请比较下EM算法、HMM、CRF。
机器学习ML模型中179223.Boosting和Bagging181224.逻辑回归相关问题182225.用贝叶斯机率说明Dropout的原理183227.什么是共线性,跟过拟合有什么关联?184共线性:多变量线性回归中,变量之间由于存在高度相关关系而使回归估计不准确。
184共线性会造成冗余,导致过拟合。
184解决方法:排除变量的相关性/加入权重正则。
184勘误记216后记219
2025/5/8 18:45:30 10.75MB BAT 机器学习 面试
1
共 200 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡