自己用来训练word2vec的,已提取文本,做了分词处理,过滤了大部分的特殊字符。
共包含3273626个段落的文本(一个段落包含了多个语句)。
处理后的语料有1.1G,由于文件较大,提供百度网盘下载地址。
2024/5/19 17:09:13 650B 维基 中文语料 word2vec
1
里面包含三个文件,text8.dev.txt、text8.test.txt、text8.train.txt。
2024/5/17 7:09:12 31.66MB word2v pytorc
1
详细讲解了word2vec用的的相关数学知识和框架,讲解清晰细致,通俗易懂,广受好评,现在分享给大家,共同学习提高。
纯共享,非盈利目的。
2024/2/3 1:16:48 1.34MB word2vec
1
深度学习word2vec博文的文档,整理了各位的意见,把错误的地方修改过了。
2023/11/24 11:06:47 1.02MB 深度学习 word2vec 学习笔记
1
word2vec中的数学原理详解
2023/11/10 21:28:30 9.39MB word2vec
1
Word2Bits-量化词向量Word2Bits扩展了Word2Vec算法,以输出高质量的量化词向量,该向量的存储量比常规词向量少8到16倍。
在阅读详细信息。
什么是量化词向量?量化词向量是词向量,其中每个参数是2^bitlevel值之一。
例如,“国王”的1位量化矢量看起来像0.333333340.333333340.33333334-0.33333334-0.33333334-0.333333340.333333340.33333334-0.333333340.333333340.33333334...由于参数限制为2^bitlevel值之一,因此每个参数仅使用bitlevel位来表示;
这大大减少了词向量占用的存储量。
下载预训练的单词向量所有单词向量均为Glove/Fasttext格式(格式详细信息)。
使用gzip压缩文件。
每个参数位
2023/10/13 10:57:49 1.2MB C++
1
wrod2vec谷歌词向量实验工具,压缩文档中有词向量实验的具体使用说明txt文档。
2023/8/1 10:32:50 81.17MB Word2vec
1
中文维基百科语料库,将其转换为文本文件后,进行繁体字转换为简体字,字符集转换,分词,然后训练得到模型以及向量。
由于文件上传的大小限制是60MB,而训练后的所有文件大小有1G以上,所以这里只提供了下载链接,地址在网盘中。
使用python中的gensim包进行训练得到的,运行时间较长,纯粹的维基百科中文语料训练后的结果,拿去可以直接使用。
2023/7/28 17:38:49 234B wiki中文
1
Word2Vec模子word2vec-google-news-300。
在GoogleNews数据集上熬炼实现的Word2Vec模子,拆穿包围了约莫300万的辞汇以及短语。
该模子是行使了全部GoogleNews约莫1000亿个词的语料熬炼而成!由于文件太大,将收缩包分成了10个部份。
1
word2vec原理及数学详解
2023/4/17 8:39:58 13.37MB word2vec
1
共 18 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡