纯C深度学习库,采用VS2010编译,里面包含训练数据MNIST,点击就能生成,包括训练和预测,另外送一个C读取图片的文件,有必要自己改写代码
2025/9/26 6:16:36 10.19MB 深度学习 纯C
1
雅诗兰黛用例:性能分析问题:将全球(互联网)资产的性能分析连接到搜索功能很少的大型数据库(超过一百万)资产中的原始资产。
在资产内部嵌入唯一标识符的问题是,当它们在进入社交媒体的过程中经过许多不同的手/公司时,它们很容易丢失。
使用图像分类,我们可以避免该问题。
目标:为图像资产分析和竞争对手分析奠定基础。
将在社交媒体和零售网站上的数字资产管理系统之外找到的操纵图像资产连接回数字资产管理系统内原始资产的文件路径。
障碍:此项目的训练数据本来就很小,每个资产只有一张图片。
我们只知道图像是被操纵的,而不是图像的实际处理(裁剪,叠加,缩放等)。
一些图像彼此非常相似。
有一条细线可用来区分相似的图片,并连接相同图片的受控版本。
方法:1)图像分类2)自动编码图像分类:使用Keras/Tensorflow,我带了他们的imagedatagenerator并创建了原始图像的合成版本。
2025/8/24 17:08:31 8.56MB JupyterNotebook
1
使用BP神经网络对样本数据(某水库年降雨量监测数据+中国铁矿石年进口量监测数据)进行操作,生成需要的训练数据和测试数据。
并使用这些数据进行训练处误差小于指定要求的网络,之后可根据界面获取需要预测的年限,并最终进行预测
2025/7/21 4:54:18 6.63MB C# BP神经网络 数据预测 界面
1
opencv3人脸识别所用到的训练数据集,40个人脸数据,每个人10张照片。
2025/7/20 19:36:30 3.07MB opencv face 人脸识别
1
RasaCore项目,自然语言理解官方文档,中文版本入门•动机•但我不用python代码!•安装教程•建立一个简单的机器人•监督学习教程•互动学习•没有Python的RasaCore深潜•域,插槽和操作•故事-训练数据•常见模式•探究-如何融合在一起•HTTP服务器•连接到消息和语音平台•计划提醒PythonAPI•代理人•事件开发者文档•Featurization•解释器•自定义策略•跟踪对话状态•迁移指南•更改日志
2025/7/11 21:46:12 856KB nlu rasa rasacore nlp
1
ATEC蚂蚁金服比赛训练数据,供个人使用测试,支付风险识别
2025/7/11 0:29:06 82.84MB 机器学习比赛
1
目录结构:准备训练样本修改源文件构建用户的训练数据文件夹训练各种曲线的绘制各种参数解析
2025/6/30 3:29:17 136KB yolo2;训练
1
PD数据库由训练和测试文件组成。
培训数据属于20名PWP(6名女性,14名男性)和20名健康人(10名女性,10名男性),他们在伊斯坦布尔大学Cerrahpasa医学院神经系上诉。
从所有主题,采取多种类型的录音(26个声音样本,包括持续元音,数​​字,单词和短句)。
从每个语音样本中提取一组26个线性和时间-基于频率的特征。
由该专家医师确定的每个患者的UPDRS((统一帕金森氏病评分量表)分数也可用于该数据集)因此,该数据集也可用于回归。
在收集由多种类型的录音组成的训练数据集并进行实验后,根据所获得的结果,我们继续在相同条件下通过同一医生的检查过程收集来自PWP的独立测试集。
在收集这个数据集的过程中,28名PD患者被要求分别只说出持续元音'a'和'o'三次,共计168次录音。
从该数据集的语音样本中提取相同的26个特征。
这个数据集可以作为一个独立的测试集来验证在训练集上获得的结果。
2025/6/28 20:20:56 20.29MB 数据库
1
opencv4.0现在支持调用TensorFlow,这是opencv4.0实现maskrcnn的训练数据集.
2025/6/28 18:29:27 169.59MB C++ TensorFlow opencv4.0 mask
1

误差反向传播(Backpropagation,简称BP)是深度学习领域中最常见的训练人工神经网络(Artificial Neural Network,ANN)的算法。
它主要用于调整网络中权重和偏置,以最小化预测结果与实际值之间的误差。
在本项目中,我们看到的是如何利用BP算法构建一个两层神经网络来识别MNIST手写数字数据集。
MNIST数据集包含60,000个训练样本和10,000个测试样本,每个样本都是28x28像素的灰度图像,代表0到9的手写数字。
BP算法通过迭代过程,对每个样本进行前向传播计算预测结果,并使用梯度下降优化方法更新权重,以提高模型在训练集上的表现。
文件"bp_two_layer_net.py"可能包含了实现BP算法的主体代码,它定义了网络结构,包括输入层、隐藏层和输出层。
"net_layer.py"可能是定义神经网络层的模块,包括前向传播和反向传播的函数。
"train_bp_two_neuralnet.py"很可能是训练脚本,调用前面的网络和训练数据,执行多次迭代以优化权重。
"buy_orange_apple.py"、"layer_naive.py"、"gradient_check.py"和"buy_apple.py"这四个文件的名称看起来与主题不太直接相关,但它们可能是辅助代码或者示例程序。
"buy_orange_apple.py"可能是一个简单的决策问题,用于帮助理解基本的逻辑操作;
"layer_naive.py"可能包含了一个基础的神经网络层实现,没有使用高级库;
"gradient_check.py"可能是用来验证反向传播计算梯度正确性的工具,这对于调试深度学习模型至关重要;
而"buy_apple.py"可能是另一个类似的小示例,用于教学或练习目的。
在BP算法中,计算图的概念很重要。
计算图将计算过程表示为一系列节点和边,节点代表操作,边代表数据。
在反向传播过程中,通过计算图的反向遍历,可以高效地计算出每个参数对损失函数的影响,从而更新参数。
在深度学习中,神经网络的优化通常依赖于梯度下降算法,它根据梯度的方向和大小来更新权重。
对于大型网络,通常采用随机梯度下降(Stochastic Gradient Descent, SGD)或其变种,如动量SGD、Adam等,以提高训练速度和避免局部最优。
总结来说,这个项目涉及了误差反向传播算法在神经网络中的应用,特别是在解决MNIST手写数字识别问题上的实践。
通过理解和实现这些文件,我们可以深入理解BP算法的工作原理,以及如何在实际问题中构建和训练神经网络。
同时,它也展示了计算图和梯度检查在深度学习模型开发中的关键作用。
2025/6/15 20:24:19 5KB
1
共 121 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡