本次提供的中文汉语语料syj_trainCorpus_utf8.txt全网免费,转载需要注明出处,语料是作者通过爬取的短文本和网络上的预料处理、合并生成的。
整个语料大小264M,包含1116903条数据,数据用空格隔开,可以用来训练分词模型。
2025/7/17 17:47:24 108.12MB NLP 语料 中文分词语料 中文语料
深度学习所用protobuf。
tensorflow依赖与该资源,需要通过其中的protoc对指定目录进行编译。
2025/7/17 17:19:01 12.43MB 深度学习所用
通过wiki生成word2vec模型的例子,使用的中文wiki资料
2025/7/17 13:30:48 1KB 神经网络
深度学习在图像识别上的应用掌握深度学习算法掌握TensorFlow框架以及图像识别应用案例
2025/7/17 12:21:24 34.8MB 人工智能 深度学习 tensorflow
共8400多对中英语句,已预处理,中文用jieba分了词,标点符号没问题,保存于en-zh.csv,分隔符是制表符\t(不是默认逗号)。
句粒度,但有不少长句,裁剪后5w对也够用。
原始数据集也在包中,其中en-zh_News.tmx有一部分句子有问题,(en-zh.csv丢弃了有问题的句子),如果必要建议不要直接使用该文件。
另外附赠我对语料的预处理文件(propressor.py),以及数据集(pytorch的Dataset)等相关的实现(LangData.py)。
如果又可以改善的地方,欢迎留言
2025/7/16 16:52:35 35.14MB 中英平行语料库 语料
本文档从最基础的原理着手,介绍了使用CNN卷积神经网络进行图片分类,是利用深度学习通过卷积神经网络进行图片分类比较不错的参考资料。
2025/7/16 12:46:40 1.35MB 图片分类 卷积神经网络 CNN 深度学习
Arduino的Dht11库文件
2025/7/16 7:32:26 1KB Arduino Dht11 数字温湿度
此论文是GAIN:MissingDataImputationusingGenerativeAdversarialNets的SupplementaryMaterials,里面包括论文公式推导以及代码参数设置
2025/7/15 18:42:02 774KB 缺失填补 深度学习
函数型数据分析的全部代码和数据以及参考文献,全部是本人亲自收集和处理的,共300多M,相关介绍详见我的博文https://blog.csdn.net/lusongno1/article/details/89305520#comments_14878182。
基于神经网络反向传播法来控制比例积分控制器,来调优参数
2025/7/15 3:30:51 12KB 神经网络控制
共 1000 条记录 首页 上一页 下一页 尾页