挖币神器(比特币)支持CPU与GPU
2023/9/20 23:07:10 9.28MB 挖币神器 支持CPU/GPU GUIMiner
1
自己将官方的nvdia解码工程进行大量的删减和重新封装,实现为一个可以重复使用的硬件解码类,并将ffmpeg整合到其中,实现rtsp拉流,在GPU中完成nv12到rgba的转换
2023/9/17 12:31:54 126.82MB nvdia 硬件解码 rtsp
1
ExportingloadedCOCOweightsasTFcheckpoint(yolov3.ckpt)andfrozengraph(yolov3_gpu_nms.pb).
2023/9/16 13:32:26 219.95MB yolov3
1
环境:Keras+python3+tensorflow—GPU+jupyternotebook运行本代码实现调用本机摄像头,实时对目标进行检测,识别。
2023/9/13 23:09:55 18KB yolov3 目标检测 深度学习 神经网络
1
DeepResolution2.0基于深度学习的多元曲线分辨率2.0DeepResolution已经提出了基于深度学习的多元曲线分辨率2.0(DeepResolution2.0)方法来自动解析GC-MS数据。
它在解析重叠峰方面具有出色的性能,适用于大规模数据分析。
与经典的多曲线分辨率方法相比,它具有快速,准确和全自动的特点。
#安装##python和TensorFlowPython3.6.5,可从TensorFlow(2.0.0-GPU版本),可在##安装依赖包软件包主要包括:numpy,Scipy,Matplotlib,pandas和os。
这些软件包包含在集成工具Anaconda#存储库并直接运行下载模型并直接运行由于模型超出了限制,我们已将所有模型和一些GC-MS数据上传到百度SkyDrive和google驱动器。
(KEY:Deep)
2023/8/16 2:10:44 1KB
1
由于文件大于220M不能直接上传,所以上传一个百度云的链接。
提示:我的环境是CUDA9.1+win10+vs2013+GPU只有环境一样的才能直接运行,不过想学的也可以作为参考。
不强迫.
2023/8/14 7:23:54 140B faster_rcnn- Matlab2018b CUDA9.1 GTX1070
1
googleEfficientDet算法中文版paper.将高效网络骨架与我们提出的BiFPN和复合尺度相结合,我们开发了一种新的对象检测器家族,称为高效Det,它始终以比以前的对象检测器更少的参数和FLOP来获得更好的精度。
图和图形显示COCO数据集上的性能比较。
在类似的精度约束下,我们的有效DET使用的FLOP比YOLOv3少28倍,FLOP比RetinaNet少30倍,FLOP比最近基于ResNet的NAS-FPN少19倍。
特别是,在单模型和单测试时间尺度下,我们的高效Det-D7实现了最先进的53.7AP和52M参数和325BFLOP,在1.5AP的情况下优于以前最好的检测器,而在4倍小和使用13倍少的FLOP。
我们的高效DET在GPU/CPU上也比以前的检测器快4倍至11倍。
1
《计算机组成与设计:硬件/软件接口(原书第5版)》是计算机组成与设计的经典畅销教材,第5版经过全面更新,关注后PC时代发生在计算机体系结构领域的革命性变革——从单核处理器到多核微处理器,从串行到并行。
本书特别关注移动计算和云计算,通过平板电脑、云体系结构以及ARM(移动计算设备)和x86(云计算)体系结构来探索和揭示这场技术变革。
  与前几版一样,本书采用MIPS处理器讲解计算机硬件技术、汇编语言、计算机算术、流水线、存储器层次结构以及I/O等基本功能。
  《计算机组成与设计:硬件/软件接口(原书第5版)》特点  更新例题、练习题和参考资料,重点关注移动计算和云计算这两个新领域。
  涵盖从串行计算到并行计算的革命性变革,第6章专门介绍并行处理器,每章中都涉及并行硬件和软件的相关主题。
  全书采用Intel Core i7、ARM Cortex-A8和NVIDIA Fermi GPU作为实例。
  增加“运行更快”这一新实例,说明正确理解硬件技术的重要性,它能使软件性能提高200倍。
  讨论并强调计算机体系结构的“8个伟大思想”——通过并行提高性能、通过流水线提高性能、通过预测提高性能、面向摩尔定律的设计、存储器层次、使用抽象简化设计、加速大概率事件和通过冗余提高可靠性。
1
培训关于批处理AI的分布式培训此仓库是有关如何使用BatchAI以分布式方式训练CNN模型的教程。
涵盖的场景是图像分类,但是该解决方案可以推广到其他深度学习场景,例如分段和对象检测。
图像分类是计算机视觉应用中的常见任务,通常通过训练卷积神经网络(CNN)来解决。
对于具有大型数据集的大型模型,单个GPU的训练过程可能需要数周或数月。
在某些情况下,模型太大,以致于无法在GPU上放置合理的批处理大小。
在这些情况下使用分布式培训有助于缩短培训时间。
在此特定方案中,使用Horovod在ImageNet数据集以及合成数据上训练ResNet50CNN模型。
本教程演示了如何使用三个最受欢迎的深度学习框架来完成此任务:TensorFlow,Keras和PyTorch。
有许多方法可以以分布式方式训练深度学习模型,包括数据同步和基于同步和异步更新的模型并行方法。
当前,最常见的场景是与同步更新并行的数据-这是最容易实现的,并且对于大多数用例而言已经足够。
在具有同步更新的数据并行分布式训练中,该模型在N个硬件设备之间复制,并且一小批训练样本被划分为N个微批次(参见图2)。
每个设备都
1
基于MediaPipe的v0.8.2的代码的gpu手跟踪Demo。
引用了我自己编译打包的aar。
aar为9.3M,包含arm64和v7a的so注意:我在索尼手机上测试,发现启动会黑屏,但点击home键后返回就好了。
2023/7/27 6:45:10 28.17MB MediaPipe 手识别 TensorFlow AI
1
共 193 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡