SOM算法在申威众核上的实现和优化
自组织神经网络(SOM)是一种被广泛使用的经典机器学习算法,但在处理复杂数据时其执行时间将急剧延长.并行化是解决这个问题的有效途径.基于目前TOP500上排名第一的"神威·太湖之光"超算平台,从模型并行和数据并行的角度出发,设计了SOM在申威众核处理器上的单核组和多核组的并行.一方面,通过程序重构将主要计算步骤转换为矩阵运算并利用高性能扩展数学库实现向量计算的并行化;另一方面,针对超算硬件的特性使用多种优化手段进行进一步的性能优化,使算法的性能得到了极大的提升.实验中,当使用64个核组时,所提算法的总加速比超过10000倍,同时最高可达900多倍的从核加速比也证明了所提算法有效发挥了申威核组中众核的能力.
自组织神经网络、神威太湖之光、并行计算、MPI、Athread
45
TP311.52;TP338.6(计算技术、计算机技术)
数学工程与先进计算国家重点实验室开放基金项目2016A05;华东师范大学实验教学设备研制基金项目41000-10201-562930/004/006
2018-12-18(万方平台首次上网日期,不代表论文的发表时间)
共6页
591-596