10.16208/j.issn1000-7024.2016.11.034
GPU并行加速的边折叠简化算法
针对目前串行的网格简化算法速度过慢,忽略模型细节特征的问题,提出一种基于 GPU 的边折叠网格简化算法。将三角网格模型划分为一系列强独立区域,采用二次误差测度计算边折叠代价,将独立区域内的所有强独立边中的最小折叠代价作为强独立区域排序值,取各个强独立区域中折叠代价最小的边并行地进行折叠操作。实验结果表明,该算法具有较快的简化速率,较好的细节特征保持能力,简化模型具有较好的拓扑连接关系和较小的几何误差。
网格简化、边折叠、强独立区域、二次误差测度、图形处理单元
37
TP391(计算技术、计算机技术)
南宁市科学研究与技术开发计划基金项目20156197;广西高校科研基金项目KY2015YB008
2016-11-30(万方平台首次上网日期,不代表论文的发表时间)
共7页
3051-3057