基于二维哈希表的海量高程点数据去重算法设计
由高程点数据构建的不规则三角网(TIN)是地形图最基本及最主要的数字高程模型(DEM).重复的高程点会使TIN构网过程中产生错误,不能生成TIN,所以在构建TIN前必须对原始高程点数据进行去重.本文改进传统的基于一维哈希表的哈希算法,采用二维哈希表对数据进行去重,在内存需求和运算速度上有较大优势,有着良好的时效性及准确度.
哈希算法、二维哈希表、高程点、去重、大批量数据
38
P208;TP391(一般性问题)
国家自然科学基金项目51074139
2013-11-27(万方平台首次上网日期,不代表论文的发表时间)
共3页
118-119,142