10.3969/j.issn.1001-0548.2018.02.004
基于小波时间延迟估计的宽带信号波束形成算法研究
在阵列信号接收中,由于信号多径效应,阵列天线接收到不同时间延迟的期望信号,这使得高精度的波束形成技术成为信号处理中的一个难点.该文提出了一种考虑时延的波束形成算法.该算法首先通过小波算法对宽带接收信号进行接收信号时间延迟估计,将时延估计值与预存时延估计值进行误差比较,并对接近期望信号方向的空间多波束进行迭代优化,最后实现在空间中形成整体的自适应波束.仿真结果验证了改进算法的有效性.
阵列信号、波束形成、宽带信号、时间延迟估计、小波算法
47
TN911.6
国家自然科学基金61401075
2018-04-26(万方平台首次上网日期,不代表论文的发表时间)
共6页
183-188