基于GPT2模型的5言和7言诗歌生成的测试项目,使用pytorch框架,里面包含了几万首古诗和已经编好码的字典和数据集,由于模型太大,上传不便,大家自己跑一下训练代码就可以了,跑了20轮之后的模型,目测效果还可以,至少我本人是写不出来这些诗歌了,哈哈
2025/3/14 19:52:11 27.24MB GPT2 pytorch 深度学习
1
聚类分析常用的人工数据集,包括:UCI:wine、Iris、yeast,还有4k2_far、leuk72_3k等数据集。
它们在聚类分析、数据挖掘、机器学习、模式识别领域经常用到。
2025/3/14 17:32:50 32KB 聚类数据 UCI
1
包括高光谱和lidar数据
2025/3/14 16:51:33 449MB 数据集
1
UKBench,UKBenchdatabase,2006.7,HenrikStewénius在他CVPR06文章中提供的数据集,图像都为640*480,每个group有4张图如果失效请留下邮箱
2025/3/12 16:31:04 69B UKBench database 数据集
1
MNIST数据集!
2025/3/11 6:13:34 14.76MB MNIST
1
Word2Vec模型word2vec-google-news-300。
在GoogleNews数据集上训练完成的Word2Vec模型,覆盖了大约300万的词汇和短语。
该模型是利用了整个GoogleNews大约1000亿个词的语料训练而成!由于文件太大,将压缩包分成了10个部分。
1
其他版本可以去我空间查看。
CIFAR-10数据集由10个类中的60000个32x32彩色图像组成,每个类有6000个图像。
有50000个训练图像和10000个测试图像。
数据集分为五个训练批次和一个测试批次,每个批次有10000个图像。
测试批次包含来自每个类别的1000个随机选择的图像。
训练批次以随机顺序包含剩余图像,但是一些训练批次可能包含来自一个类别的更多图像而不是另一个类别。
在他们之间,培训批次包含来自每个班级的5000个图像。
2025/3/10 16:42:18 162.18MB cifar 神经网络 机器学习 图像处理
1
机器学习-强化学习-汤普森采样强化学习:汤普森采样:我们需要在有效的勘探与开发之间找到适当的平衡。
与UCB算法不同,汤普森采样算法是一种概率算法。
该算法具有代表我们对世界的感知以及我们认为这些机器中的每台机器的实际预期收益可能位于的分布。
与UCB相比,Thomas采样的优点之一是它可以适应延迟的反馈。
我将使用与UCB算法相同的数据集。
与UCB算法相比,汤普森采样算法产生了更好的结果(能够在尽可能少的回合中确定最佳广告)。
该算法的工作原理如下:在第n轮中,我们为每个广告i考虑两个数字:N1(n):-直到第n轮我获得奖励1的广告的次数,N0(n):-广告获得奖励​​0到第n轮的次数。
对于每个广告i,我们从以下分布中随机抽取:0i(n)=B(N1(n)+1,N0(n)+1)我们选择最高0i(n)的广告
2025/3/9 6:41:01 27KB JupyterNotebook
1
各种格式机器学习常用的二分类数据集,还有很多,文件大小限制上传不了,可以联系我
2025/3/9 5:28:27 19.9MB 二分类
1
包括wine.data和wine.names,数据分析书籍上经典数据集
2025/3/8 13:21:14 6KB 数据分析 数据集
1
共 1000 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡