10.3969/j.issn.1006-4303.2016.05.005
基于GPU的高效并行l1最小化算法
多数l1最小化算法主要由稠密矩阵矢量乘(如Ax和ATx)和矢量运算组成.为使其适应大数据环境下的性能需求,基于GPU,利用其新的特征,提出了两个新颖的基于GPU的并行矩阵矢量乘.这两个算法实现了全局内存的合并访问,对任意给定矩阵,通过所使用的自适应分配线程数或warp数的策略,增加了鲁棒性.基于这两个算法,并以两个流行的l1最小化算法为例:快速迭代收缩阈值算法(FISTA)和增广拉格朗日乘子法(ALM),提出了两个高效基于GPU的并行l1最小化算法.实验结果验证了提出的算法是高效的,并有良好的性能.
l1最小化、GPU、矩阵矢量乘、FISTA、ALM
44
TP338.6(计算技术、计算机技术)
国家自然科学基金资助项目61379017
2016-11-15(万方平台首次上网日期,不代表论文的发表时间)
共6页
495-500