《深度进修之Pytorch》+《PyTorch深度进修实战》+源代码.rar
2015/8/23 5:22:10 70.8MB 源码
1
基于Pytorch实现的深度强化学习DQN算法源代码,具有超详细的正文,已经在诸多项目中得到了实际应用。
主要包含2个文件:(1)dqn.py,实现DQN只能体的结构、经验重放池、Q神经网络、学习方法等;
(2)runner.py,使用dqn.py中的智能体与环境进行交互与学习,并最终学会仿真月球车着陆游戏。
2020/1/5 5:04:31 8KB 强化学习 DQN 智能体 月球车着陆
1
HiddenLayer-面向PyTorch/Tensorflow的神经网络图和训练襟怀的轻量库
2017/11/7 14:57:20 2.76MB Python开发-机器学习
1
数据融合matlab代码自适应加权学习网络的轻量图像超分辨率王朝峰,李振和石军,“具有自适应加权学习网络的轻量图像超分辨率”,该代码基于依存关系的Python3.5PyTorch>=0.4.0麻木skimage意象matplotlibtqdm代码 gitclonegit@github.com:ChaofWang/AWSRN.git cdAWSRN抽象的近年来,深度学习已以出色的功能成功地应用于单图像超分辨率(SISR)任务。
但是,大多数基于卷积神经网络的SR模型都需要大量计算,这限制了它们在现实世界中的应用。
在这项工作中,为SISR提出了一种轻量级SR网络,称为自适应加权超分辨率网络(AWSRN),以解决此问题。
在AWSRN中设计了一种新颖的局部融合块(LFB),用于有效的残差学习,它由堆叠的自适应加权残差单元(AWRU)和局部残差融合单元(LRFU)组成。
此外,提出了一种自适应加权多尺度(AWMS)模块,以充分利用重建层中的特征。
AWMS由几个不同的尺度卷积组成,并且可以根据AWMS中针对轻量级网络的自适应权重的贡献来删除冗余尺度分
2018/6/1 12:43:36 3.95MB 系统开源
1
用于训练Submanifold稠密卷积网络的Torch/PyTorch库
2015/1/3 19:55:05 378KB Python开发-机器学习
1
matlab插值代码解释FSRCNN由Pytorch和Matlab复制《加速超分辨率卷积神经网络》(CVPR2016)论文。
依存关系Matlab2016火炬1.0.0解释论文作者url:提供的一些Matlab代码。
使用两种语言进行项目的次要原因是因为双三次插值的实现方式不同,这导致使用PSNR标准时结果的差异更大。
概述网络概述和与SRCNN的比较:用法使用./data_pro/data_aug.m进行扩充。
使用./data_pro/generate_train.m生成train.h5。
使用./data_pro/generate_test.m生成test.h5。
乘坐train.py火车:pythontrain.py将Pytorch模型.pkl转换为Matlab矩阵.mat。
(weights.pkl->weights.mat)pythonconvert.py使用./test/demo_FSRCNN.m获得结果。
结果使用./model/weights.mat可以得到结果:Set5平均:重建PSNR=32.52dBVS双三次PSNR
2017/10/8 20:19:39 7.89MB 系统开源
1
变压器-TTSPytorch实现与众所周知的saco2seq模型(如tacotron)相比,该模型的训练速度快约3至4倍,并且合成语音的质量几乎相同。
通过实验确认,每步花费约0.5秒。
我没有使用波网声码器,而是使用tacotron的CBHG模型学习了后网络,并使用griffin-lim算法将频谱图转换为原始波。
要求安装python3安装pytorch==0.4.0安装要求:pipinstall-rrequirements.txt数据我使用了LJSpeech数据集,该数据集由成对的文本脚本和wav文件组成。
完整的数据集(13,100对)可在下载。
我将和用作预处理代码。
预训练模型您可以下载预训练的模型(AR模型为160K,Postnet为100K)在检查点/目录中找到预训练的模型。
留意图约15k步后出现对角线对齐。
以下留意图以16
2016/5/8 12:34:51 1.51MB text-to-speech deep-learning pytorch tts
1
NumpywxPythonpytorchtorchvisionPILUsage:$pythonStyleTransferGui.pybutton:contentimg:选择内容图片styleimg:选择风格图片Start:启动风格转换程序ModelChoice:选择模型Preferences->hyperparameter:设置训练超参数
2015/6/2 4:24:20 1003KB 图像风格迁移
1
更新2021/03/27:(1)发布语义分割的预训练模型,其中PointNet++可以达到53.5%的mIoU。
(2)发布预训练模型用于分类和部分分割log/。
2021/03/20:更新分类代码,包括:(1)添加训练ModelNet10数据集的代码。
使用--num_category10.(2)添加仅在CPU上运行的代码。
使用--use_cpu.(3)增加离线数据预处理代码,加速训练。
使用--process_data.(4)添加用于均匀采样训练的代码。
使用--use_uniform_sample.2019/11/26:(1)修复了之前代码中的一些错误并增加了数据加强技巧。
现在只用1024分就可以达到92.8%!(2)增加了测试代码,包括分类和分割,以及可视化的语义分割。
(3)将所有模型整理成./models文件,方便使用。
2021/5/22 10:51:13 130.98MB pointnet2 pointnet++ 点云算法 算法升级
1
共 122 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡