BCICompetition2003(第二次BCI大赛)共包含一名女性受试者,年龄为25岁,健康情况良好。
所有的试次(Trials)均在同一天完成,实验分为七组来进行,总共280个试次。
单个Trial的持续时间为9秒,C3、Cz、C4三个电极通道的数据以双导联方式被记录下来,如下图2.1所示,系统的采样频率为128Hz。
280个试次包含140个训练集数据及140个测试集数据,训练集及测试集的正确标签均已给出
2022/9/5 11:23:01 3.71MB BCI Competit BCI
1
1.使用pytorch,使用全连接层,而不是用卷积层,要求有两层隐含层2.尽一切可能提高精确率,在这里训练集上达到99.9%以上
2022/9/5 3:48:43 13.59MB pytorc mnist
1
1.本数据来源于MAFAdataset和WIDERFACEdataset。
2.训练集共6120张图片,来自与MAFA的有3006张图片(基础都是戴口罩的图片),WIDERFace的有3114张(基础都是不戴口罩的图片)。
3.验证集共1839张图片,其中来自MAFA的有1059张图片,来自于WIDERFace的共780张。
2022/9/3 13:08:49 757.43MB 人脸识别 深度学习
1
CS231A课程项目:深度立体声匹配重新实现GC-Net我主要是重新实现GC-Net。
我实现了两个版本的GC-Net模型:一个带有掩码(损失被掩码),另一个不带掩码。
结果定性结果SceneFlow上的无遮罩版本,原始图像和预测样本:SceneFlow上的带遮罩版本,遮罩的地面真相,遮罩的预测和未遮罩的预测:在KITTI训练集上,要了解真实情况,掩盖的预测和未掩盖的预测:在KITTI测试集中,原始图像和预测样本:定量结果由于KITTI数据集非常稀疏,因而提供的groundtruths是带遮罩的,我首先实现并训练带遮罩的版本。
但是我发现一些预测非常模糊。
(我的口罩有点过多)。
虽然定性结果看起来不错,但是SceneFlow测试集上的定量结果不是很好。
至于KITTI,这不是令人满意的版本,因而我不提交。
并且由于时间和资源的限制,我不进行验证。
我在训
2022/9/3 12:38:33 16.3MB computer-vision JupyterNotebook
1
MNIST应该是最简单,也是最好的起始数据集,使用极为简单的分类器就可以达到不错的泛化准确率(何为泛化?即我们的模型对于没有进入训练集的判断能力,反应了模型能否正确或是鲁棒),实际上,基本上由图像各密集像素区的简单分布就可以达到分类手写数字识别的目的(特别是限制了手写范围,数字一般处于居中的位置的时候)。
此为其下载的脚本文件,此外,只需要一次下载后即可无须下载立刻使用,具体请看我的教程。
2019/9/19 21:57:15 1KB a'a'a'a'a'a'
1
ARIMA预测模型训练集和预测集ARIMA模型全称为自回归积分滑动平均模型(AutoregressiveIntegratedMovingAverageModel,简记ARIMA),是由博克思(Box)和詹金斯(Jenkins)于70年代初提出一著名时间序列(Time-seriesApproach)预测方法[1],所以又称为Box-Jenkins模型、博克思-詹金斯法。
其中ARIMA(p,d,q)称为差分自回归移动平均模型,AR是自回归,p为自回归项;
MA为移动平均,q为移动平均项数,d为时间序列成为平稳时所做的差分次数。
所谓ARIMA模型,是指将非平稳时间序列转化为平稳时间序列,然后将因变量仅对它的滞后值以及随机误差项的现值和滞后值进行回归所建立的模型。
ARIMA模型根据原序列能否平稳以及回归中所含部分的不同,包括移动平均过程(MA)、自回归过程(AR)、自回归移动平均过程(ARMA)以及ARIMA过程。
2017/5/23 20:02:29 2KB MATLAB ARIMA
1
1.HTK环境搭建(把该上一层下的htk_bin添加到path里)1.把wav数据分成测试集,和数据集2.获取训练集的lab文件,l
2019/3/8 16:13:19 246KB 网络 python windows 测试
1
深层神经网络拥有更强特征表达能力的同时,也带来了优化难、训练成本高及梯度弥散等问题;参数数量的激增则导致模型过于臃肿,不利于其在挪动端及工业控制设备等算力弱、存储小的平台上的部署.针对这些问题,构建了一种融合空洞卷积和多尺度稀疏结构的轻量神经网络对图像进行特征提取,实现对带有彩色图形噪声且字符扭曲粘连严重的验证码图像的端到端识别.将包含100万张验证码图像的数据集按98:1:1的比例划分为训练集、验证集和测试集,逐批参与训练.实验结果表明,该网络在大大减少参数数量的同时,具有测试集上98.9%的识别成功率.
1
Cora数据集包含2708篇科学出版物,edges:5429,classes:7,features:1433每个科学出版物都由一个01词向量描绘训练集(140,1433),测试集(1000,1433),总训练集(1708,1433),训练集从总训练集中抽取,存在labeled和unlabeld节点用于深度学习,图神经网络的训练
2019/4/21 3:36:07 367KB Python pytorch 深度学习
1
代码包括遥感影像的单图裁剪、批量裁剪;
训练集、验证集和测试集的切分;
目标检测和语义分割影像的数据增强;
32/16位深度转8位深度。
1、主要用于深度学习领域的遥感影像数据处理,主要针对输入数据为tif,转为jpg、png格式,并将数据裁剪为网络可以训练的大小,可以手动调理裁剪步长(即有重叠或无重叠),可以对单张图像进行裁剪,也可对文件夹内的所有图片进行裁剪。
2、可以根据想要划分的训练集、验证集和测试集的比例进行划分,如9:1:1.3、本代码还提供了用于目标检测和语义分割任务的数据的增强,主要包括仿射变换、平移翻转等。
4、此外,代码还针对遥感影像位深度32或者16的转为8位的操作。
本代码可修改性强,为方便理解,每部分代码都进行的标注。
本文件共包含10个python文件。
2017/6/9 19:21:55 24KB 深度学习 数据处理 遥感影像
1
共 151 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡