使用CUDA在GPU上减速3D数字差分阐发仪光线跟踪算法
2023/4/11 7:25:08 365KB 研究论文
1
#GPF##一、GPF(GraphProcessingFlow):行使图神经收集处置下场的普通化流程一、图节点预展现:行使NE框架,直接患上到全图每一个节点的Embedding;二、正负样本采样:(1)单节点样本;
(2)节点对于样本;
三、抽取封锁子图:可做类化处置,建树一种通用图数据结构;四、子图特色领悟:预展现、节点特色、全局特色、边特色;五、收集配置配备枚举:可所以图输入、图输入的收集;
也可所以图输入,分类/聚类下场输入的收集;六、熬炼以及测试;##二、首要文件:一、graph.py:读入图数据;二、embeddings.py:预展现学习;三、sample.py:采样;四、subgraphs.py/s2vGraph.py:抽取子图;五、batchgraph.py:子图特色领悟;六、classifier.py:收集配置配备枚举;七、parameters.py/until.py:参数配置配备枚举/帮手文件;##三、使用一、在parameters.py中配置配备枚举相关参数(可默许);
二、在example/文件夹中运行响应的案例文件--搜罗链接料想、节点外形料想;
以链接料想为例:###一、导入配置配备枚举参数```fromparametersimportparser,cmd_embed,cmd_opt```###二、参数转换```args=parser.parse_args()args.cuda=notargs.noCudaandtorch.cuda.is_available()torch.manual_seed(args.seed)ifargs.cuda:torch.cuda.manual_seed(args.seed)ifargs.hop!='auto':args.hop=int(args.hop)ifargs.maxNodesPerHopisnotNone:args.maxNodesPerHop=int(args.maxNodesPerHop)```###三、读取数据```g=graph.Graph()g.read_edgelist(filename=args.dataName,weighted=args.weighted,directed=args.directed)g.read_node_status(filename=args.labelName)```###四、患上到全图节点的Embedding```embed_args=cmd_embed.parse_args()embeddings=embeddings.learn_embeddings(g,embed_args)node_information=embeddings#printnode_information```###五、正负节点采样```train,train_status,test,test_status=sample.sample_single(g,args.testRatio,max_train_num=args.maxTrainNum)```###六、抽取节点对于的封锁子图```net=until.nxG_to_mat(g)#printnettrain_graphs,test_graphs,max_n_label=subgraphs.singleSubgraphs(net,train,train_status,test,test_status,args.hop,args.maxNodesPerHop,node_information)print('#train:%d,#test:%d'%(len(train_graphs),len(test_graphs)))```###七、加载收集模子,并在classifier中配置配备枚举相关参数```cmd_args=cmd_opt.parse_args()cmd_args.feat_dim=max_n_label+1cmd_args.attr_dim=node_information.shape[1]cmd_args.latent_dim=[int(x)forxincmd_args.latent_dim.split('-')]iflen(cmd_args.latent_dim)
2023/4/8 5:48:07 119KB 图神经网络 Graph Proces GPF
1
CUDA、GPU实现图像的sobel、prewitt、均值、中值滤波
2023/4/8 0:41:58 10KB cuda图像处理
1
这是基于cuda10的cudnn减速包。
下载后解压在cuda装置路途。
2023/4/5 18:12:20 239.19MB cudnn10.0 cuda
1
python的cuda模块,用于windows64位,资源清静,请耽忧下载
2023/4/5 9:42:48 366KB cuda
1
CUDA_BY_EXAMPLE自带的几个头文件,包含book.hcpu_anim.hcpu_bitmap.hgl_helper.hgpu_anim.hglext.hglut.h
2023/3/12 20:20:56 65KB gl_helper.h gpu_anim.h glext.h glut.h
1
用CUDA写了个简单的求解稀疏矩阵的例子,使用共轭梯度法迭代。
矩阵的计算都是在GPU上运转。
稀疏矩阵采用CSR格式表示。
2023/2/22 22:05:26 13.8MB CUDA
1
安装Pytorch需求安装cuda9.0与cudnn文件
2023/2/19 10:29:40 116B cuda9.0windows软件
1
1.文档是从http://cudazone.nvidia.cn/forum/forum.php?mod=viewthread&tid=6266&extra=page=1下载来的,是“yyfn风辰”翻译的文档,原文档是装好cudasdk后名字为“CUDA_C_Programming_Guide.pdf”的文档2.文档上面附有一层斜着的文字,字很大,颜色很深,影响阅读,这里用foxitpdfediter一页一页的把它去掉了,方法比较笨,高手知道更好的方法希望告诉我一下3.我看过翻译的文档,很不错,对我这种英语很烂的人非常有协助
2023/2/11 11:38:38 1.81MB CUDA 编程指南 中文版
1
根据猜测,NviDIA可能在334版以后的驱动不再提供CUDA编码,只提供NVENC编码。
导致使用如下两类人群在转码的时候遇到极大的麻烦:1、使用GTX9XX显卡的人;
2、使用旧显卡却必须装新版驱动的人。
因为现在支持CUDA转码的软件一大堆,但现在侦测不到CUDA了。
而支持NVenc的软件却屈指可数,限制多多还要收费。
这里提供一个处理的可能性,复制特定的文件到指定的文件夹以后,一部分原来不能检测到CUDA的转码软件,终于可以使用CUDA了。
不保证每个软件都有效,目前测试过曦力音视频转换专家无效,魔影工厂有效,其他软件未作试验。
2023/2/6 5:26:43 1.43MB GTX970 GTX980 GTX9XX CUDA
1
共 116 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡