强化学习中的一个重要里程碑就是Q学习算法,使用matlab进行单步Q学习无妨碍路径规划仿真,设学习次数为200.
2016/5/13 18:10:12 4KB matlab Q-learning 仿真 路径规划
1
一、实验要求采用三层前馈BP神经网络实现标准人脸YALE数据库的识别,编程语言为C系列语言。
二、BP神经网络的结构和学习算法实验中建议采用如下最简单的三层BP神经网络,输入层为,有n个神经元节点,输出层具有m个神经元,网络输出为,隐含层具有k个神经元,采用BP学习算法训练神经网络。
BP神经网络的结构BP网络在本质上是一种输入到输出的映射,它能够学习大量的输入与输出之间的映射关系,而不需要任何输入和输出之间的精确的数学表达式,只需用已知的模式对BP网络加以训练,网络就具有输入输出对之间的映射能力。
BP网络执行的是有教师训练,其样本集是由形如(输入向量,期望输出向量)的向量对构成的。
在开始训练前,所有的权值和阈值都应该用一些不同的小随机数进行初始化。
2018/5/5 13:21:11 5.68MB 人工智能 神经网络BP 人脸识别
1
算法竞赛入门经典高清完整版,绝对真实,骗子死xx,看40MB文件大小就晓得,手写目录,部分彩图,学习算法以及算法提高的不二之选!
2021/6/14 4:31:37 40.09MB 算法 C++ 高清  完整版
1
深度强化学习是深度学习算法和强化学习算法的巧妙结合,它是一种新兴的通用人工智能算法技术,也是机器学习的前沿技术,DRL算法潜力无限,AlphaGo是目前该算法最成功的使用案例。
DRL算法以马尔科夫决策过程为基础,是在深度学习强大的非线性函数的拟合能力下构成的一种增强算法。
深度强化学习算法主要包括基于动态规划(DP)的算法以及基于策略优化的算法,这本书共10章,首先以AlphaGo在围棋大战的伟大事迹开始,引起对人工智能发展和现状的引见,进而引见深度强化学习的基本知识。
然后分别引见了强化学习(重点引见蒙特卡洛算法和时序差分算法)和深度学习的基础知识、功能神经网络层、卷积神经网络(CNN)、循环神经网络(RNN),以及深度强化学习的理论基础和当前主流的算法框架。
最后引见了深度强化学习在不同领域的几个应用实例。
2019/3/8 21:17:23 145.91MB 深度强化学习
1
算法与数据结构总览脑图|编程学习,算法研讨
2021/5/13 3:28:34 202KB 算法
1
流形学习算法之一,具有较强的数据发掘能力,能够用于模式识别。
2019/10/21 8:38:01 2KB LE
1
1.在UCIrvineMachineLearning数据集上选择三个数据2.编写一种机器学习算法预测结果,并运用十次、十折交叉验证3.撰写报告,包含对数据集、算法、结果的描述以及源代码
2018/5/23 7:44:50 567KB 决策树、代码
1
dlib-19.19.0-cp38-cp38-win32.whl免编译安装,快速使用。
Dlib是一个使用现代C++技术编写的跨平台的通用库,其中包含用于在C++中创建复杂软件以处理实际问题的机器学习算法和工具。
下载后在当前文件目录CMD执行pipinstalldlib-19.19.0-cp38-cp38-win32.whl安装即可。
2015/1/22 5:01:49 3MB dlib 人脸识别
1
稀疏贝叶斯学习算法SBL-FM算法,为博士论文中的代码完成
2015/4/27 23:43:28 12KB 稀疏 贝叶斯 SBL
1
机械学习算法视角
2016/7/3 22:52:07 6.65MB 机器学习
1
共 165 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡