指令的加速体验.doc指令的加速体验摘要:随着越来越多的公司和企业使用GPU来作为加速计算设备,对并行程序的需求也越來越大,目前我们一般都使用CUDA或OPENCL等底层API进程序开发,但是使用这些底层API来进行开发效率都不高,指令就是针对这个问题提出来的,在该文里,我们针对高斯模糊算法,分别使用CPU,,CUDA进行实现,比较他们的效率,相对-于CUDA性能要低一些,但相对其陡峭的学****曲线和低下的开发效率,冇着不错的性价比,而且随着编译器和硬件技术的发展,有着广阔的发展空间。关键词:;CUDA;GPGPU;卷积中图分类号:TP391文献标识码:A文章编号:1009-3044(2012)34-8248-031简介随着性价比的日益提高,包含加速设备的异构计算系统越来越受到欢迎,但是,由于复杂的代码设计或是只能特定于厂商设备,使得底层的APT来进行GPU的软件开发困难重重,所以对于开发大型软件或项目来说,这样一个没有效率和高度依赖设备厂商的开发过程是不可接受的。目前己经出现了一些方法,即釆有基于指导的高层API来转移这些底层代码由编译器实现,当然,从一般意义来说,这并没有简化程序的并行化设计,还是要由程序员来负责挖掘代码中的并行功能,但是这大大提高了程序的开发效率和代码的可维护性,而且,将几种指令加速进行标准化将使代码跨设备并行化成为可能,在2011年12月,,这些成员包括CAPS,CRAY,NVIDIA,PGI等公司,它将C/C++或F0RTAN中的循环部分计算转移到加速设备中,在该文中,指令,并把它与CPU,CUDA进行比较分析,并结合代码进行综合分析。2相关的工作GPU的通用化设计带来了新的编程模式的巨大改变,目前,主要的GPU编程模型为CUDAE13]和0PENCII10],二者都是使用GPU核函数来发挥GPU加速器的威力,当然,CUDA只适用于NVIDIA的GPU,而0PENCL则是作为一个标准适用于多个厂商的硬件设备,由于底层代码的重复性和易错性,用这些API进行开发通常效率很低。目前,已经提出了儿个基于制导指令的加速计算协议,类似于OPENMP的指令制导模型,,这个模型除了提供基于指令制导的编译器辅助加速之外,还附加一系列的附加功能,而CAPS公司建立的HMPP环境则是用指令产生一系列的代码片段,这些片段可用于许多硬件设备上进行加速。hiCUDA则使用核心指令,数据传输条件和函数调用定义了一个高层的CUDA抽象,除了支持CUDA规范,给了程序员更多的工作和责任,0PENMPC则可以将OPENMP的代码翻译成CUDA代码。总述在为不同系统,主机CPU和加速设备提供可移植的同吋,用于C/C++指令把低层GPU编程的工作转移给编译器,但是,到目前为止,仅仅支持NVIDIAGPU,在这里,作一个简述。API基于一个主机模型,在这个主机模型里,主程序运行在主机里,而且计算紧密区域则会加载到附属的加速设备上去,内存模型则分为主机和设备二层,而且二者之间并不同步。来标定,下面是一些基本指令介绍最重要的指令是parallel和kernels指令,这二个指令描述了同步或异步的执行区域,因为kernels冃前的实现都有些问题,这里我们重点放在parallel指令
指令的加速体验 来自淘豆网www.taodocs.com转载请标明出处.