使用glove预训练词向量(1.6GB维基百科语料),维度为300,词汇量约13000,文件大小为41.2MB
2024/10/5 2:02:26 41.24MB 自然语言处理 预训练词向量
1
这个Matlab工具箱实现32种维数降低技术。
这些技术都可以通过COMPUTE_MAPPING函数或trhoughGUI。
有以下技术可用: -主成分分析('PCA') -线性判别分析('LDA') -多维缩放('MDS') -概率PCA('ProbPCA') -因素分析('因子分析') -Sammon映射('Sammon') -Isomap('Isomap') -LandmarkIsomap('LandmarkIsomap') -局部线性嵌入('LLE') -拉普拉斯特征图('Laplacian') -HessianLLE('HessianLLE') -局部切线空间对准('LTSA') -扩散图('DiffusionMaps') -内核PCA('KernelPCA') -广义判别分析('KernelLDA') -随机邻居嵌入('SNE') -对称随机邻接嵌入('SymSNE') -t分布随机邻居嵌入('tSNE') -邻域保留嵌入('NPE') -线性保持投影('LPP') -随机接近嵌入('SPE') -线性局部切线空间对准('LLTSA') -保形本征映射('CCA',实现为LLE的扩展) -最大方差展开('MVU',实现为LLE的扩展) -地标最大差异展开('地标MVU') -快速最大差异展开('FastMVU') -本地线性协调('LLC') -歧管图表('ManifoldChart') -协调因子分析('CFA') -高斯过程潜变量模型('GPLVM') -使用堆栈RBM预训练的自动编码器('AutoEncoderRBM') -使用进化优化的自动编码器('AutoEncoderEA')此外,工具箱包含6种内在维度估计技术。
这些技术可通过INTRINSIC_DIM函数获得。
有以下技术可用: -基于特征值的估计('EigValue') -最大似然估计器('MLE') -基于相关维度的估计器('CorrDim') -基于最近邻域评估的估计器('NearNb') -基于包装数量('PackingNumbers')的估算器 -基于测地最小生成树('GMST')的估计器除了这些技术,工具箱包含用于预白化数据(函数PREWHITEN),精确和估计样本外扩展(函数OUT_OF_SAMPLE和OUT_OF_SAMPLE_EST)的函数以及生成玩具数据集(函数GENERATE_DATA)的函数。
工具箱的图形用户界面可通过DRGUI功能访问
2024/9/5 12:27:19 1.06MB matlab,降维
1
从Gitbub下载的,外网下载速度10k+,好不容易下的,需要的请拿走。
在Keras上预训练的VGG16模型,基于ImageNet
2024/6/16 11:03:03 56.16MB 预训练模型
1
测量语言模型中的社会偏见贡献者对应于:()WuChiyu()概括TLDR:我们设计了一个基准套件,以测试预训练语言模型中是否存在代表性的社会偏见。
我们的指标捕获了单词和句子级别的偏见,并返回了在公平性和性能之间取得平衡的整体评分。
动机随着机器学习方法被部署在诸如医疗保健,法律系统和社会科学等现实世界中,至关重要的是要认识到它们如何在这些敏感的决策过程中形成社会偏见和成见。
在这样的现实世界中,部署大规模的预训练语言模型(LM)可能会表现出不良的代表性偏见,而这种偏见可能是危险的-刻板印象产生的有害偏见会传播涉及性别,种族,宗教和其他社会建构的负面概括。
为了提高LM的公平性,我们在提出新的基准和度量标准之前,仔细定义了代表偏见的几种来源。
该存储库包含一组工具,用于对LM中的社会偏见进行基准测试。
相关工作最近的工作集中于定义和评估社会偏见[1,2]以及其
2024/5/24 12:49:52 4KB
1
SSD预训练的权重文件,下载后解压就可,model.load_weights("weights_SSD300.hdf5")加载无问题
2024/5/20 0:13:13 91.26MB SSD
1
TensorFlowVGG-16预训练模型,用于SSD-TensorFlow的Demo训练.
2024/4/15 20:21:16 489.54MB TensorFlow vgg_16.ckpt
1
提供预训练模型,运行eval.py即可,如果没有GPU,则请删除.cuda()
2024/4/15 6:36:02 130.54MB 深度学习 边缘检测
1
该代码使用Tensorflowr1.7在Ubuntu14.04下使用Python2.7和Python3.5进行测试。
代码中包含测试用例。
模型使用固定图像标准化。
在中科院自动化所,WebFace数据集已经被用于训练。
该面部检测后,该训练集包括总共453453个图像,超过10575个身份。
如果在训练之前过滤了数据集,则可以看到一些性能改进。
有关如何完成此操作的更多信息将在稍后提供。
性能最佳的模型已经在VGGFace2数据集上进行了训练,该数据集由~3.3M面和~9000个类组成。
提供了几个预训练模型。
请注意,模型的输入图像需要使用固定图像标准化进行标准化
1
transformers+pytorch框架下使用的bert-chinese谷歌官方预训练版本,其中有三个文件:config.json、pytorch_model.bin、vocab.txt
2024/2/20 20:17:20 367.18MB NLP
1
该代码使用Tensorflowr1.7在Ubuntu14.04下使用Python2.7和Python3.5进行测试。
代码中包含测试用例。
模型使用固定图像标准化。
在中科院自动化所,WebFace数据集已经被用于训练。
该面部检测后,该训练集包括总共453453个图像,超过10575个身份。
如果在训练之前过滤了数据集,则可以看到一些性能改进。
有关如何完成此操作的更多信息将在稍后提供。
性能最佳的模型已经在VGGFace2数据集上进行了训练,该数据集由~3.3M面和~9000个类组成。
提供了几个预训练模型。
请注意,模型的输入图像需要使用固定图像标准化进行标准化(--use_fixed_image_standardization例如,在运行时使用该选项validate_on_lfw.py)。
1
共 72 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡