表情辨认数据fer2013,原地址在https://www.kaggle.com/c/challenges-in-representation-learning-facial-expression-recognition-challenge/data
2023/2/21 6:27:19 91.97MB tensorflow
1
Learning-basedVideoMotionMagnification代码+预锻炼模型data+测试视频数据baby
2023/1/24 4:48:01 8.32MB 运动放大
1
学习各种知识的记实
2018/8/25 11:49:26 3.93MB 学习各种知识的记录
1
学习各种知识的记实
2020/1/7 19:10:45 3.93MB 学习各种知识的记录
1
sarsa,q-learning
2015/5/24 9:36:29 8KB sarsa
1
sarsa,q-learning
2020/4/22 1:52:14 8KB sarsa
1
该数据是kaggle2013年一个比赛的数据集,比赛网址为:https://www.kaggle.com/c/challenges-in-representation-learning-facial-expression-recognition-challenge/data数据包含三个文件:fer2013.bib,fer2013.csv,README
2016/11/16 18:45:43 86.38MB 深度学习 表情识别
1
图德尔夫特深度学习为深度学习课程工作。
部分基于讲授团队提供的材料。
2021/7/26 2:12:01 12.31MB JupyterNotebook
1
基于王子寻找公主的案例详细解释Q-Learning算法的每一条代码
2016/4/25 4:09:27 33KB 强化学习
1
模仿学习此仓库包含一些强化学习算法的简单PyTorch实现:优势演员评论家(A2C)的同步变体近端策略优化(PPO)-最受欢迎的RL算法,,,策略上最大后验策略优化(V-MPO)-DeepMind在其上次工作中使用的算法(尚不起作用...)行为克隆(BC)-一种将某些专家行为克隆到新策略中的简单技术每种算法都支持向量/图像/字典观察空间和离散/连续动作空间。
为什么回购被称为“模仿学习”?当我开始这个项目并进行回购时,我认为模仿学习将是我的主要重点,并且无模型方法仅在开始时用于培训“专家”。
但是,PPO实施(及其技巧)似乎比我预期的花费了更多时间。
结果,现在大多数代码与PPO有关,但是我仍然对模仿学习感兴味,并打算添加一些相关算法。
当前功能目前,此仓库包含一些无模型的基于策略的算法实现:A2C,PPO,V-MPO和BC。
每种算法都支持离散(分类,伯努利,GumbelSoftmax)和连续(贝塔,正态,tanh(正态))策略分布以及矢量或图像观察环境。
Beta和tanh(Normal)在我的实验中效果最好(在BipedalWalker和Huma
2016/4/5 15:54:46 11.42MB
1
共 72 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡