非欠定盲源分离技术研究

来源 :杭州电子科技大学 | 被引量 : 0次 | 上传用户:nlqysb
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
无线通信环境下,由通信设备所侦察接收到的信号,常常是时域或频域中多个信号的混合体,而且信号在传输过程中还要受到信道的多径效应以及环境噪声等因素的影响。在某些情况下,源信号和传输系统的先验知识并非已知,针对非平稳时变信道,传统的信号处理方法逐渐显现出不足,因此,发展新型的盲源分离技术正逐渐成为通信领域中一项极具挑战的课题,其灵活性、稳定性、高效性必将为通信技术带来全新的理念。本文通过介绍盲源分离(Blind Source Separation, BSS)的基础理论,重点研究了杂系混合信号以及时延卷积语音信号的盲源分离算法,具体内容如下:第一章介绍了盲源分离的历史背景、分类、研究现状以及发展趋势,建立了瞬时混合与卷积混合的BSS基本模型,以及本文的主要工作和内容安排。第二章简要概括了盲源分离算法中所涉及的的基本信息论知识,重点介绍了构造算法中的对照函数,以及相应的算法性能指标,即串音干扰指标和相干系数指标,以此对构造算法进行定性或定量比较。第三章提出一种基于非线性核函数的杂系分离算法,即KFBSS算法。该算法从信号的峭度出发,首先将信号分为亚高斯或超高斯信号,通过引入一种非线性核函数,将分离信号进行非线性核映射,最优化平滑参数,同时更新混合分离矩阵,通过不断迭代学习,对混合信号进行盲源分离。并通过具体实例对算法进行了仿真、分析和验证,相比于EASI、自然梯度等算法,该算法不仅对混合信号进行了有效的分离,同时,从串音干扰指标和相干系数指标上可以看出,该算法具有较好的稳定性和较快的收敛速度。第四章主要研究了实际环境中时延卷积语音信号的盲源分离算法,提出一种基于多信道噪声对消的频域盲源分离算法。该算法将空域中的阵列处理技术巧妙应用于BSS算法中,无需假设信号的任何先验分布特性,通过频域中的语谱分裂技术,对混合信号进行语谱分裂,将主路径信号以外的交叉泄漏信号视为干扰信号,最后利用噪声对消技术恢复出各个频域语音信号,经过逆时频转换之后可得源信号的估计。本章最后给出了计算机仿真结果,由本算法可以得到较高的相关系数,与此同时,从语谱图上可以看出,恢复得到的语音信号具有较清晰的图谱,表明本章算法具有良好的性能。第五章是结束语部分,总结本文工作,分析不足和待完善之处,为今后的研究提供依据。
其他文献
近两年无线局域网技术被国内3大电信运营商所关注,公共场所大量出现了以无线路由器或交换机为基础的wlan局域网。为此WI—FI技术得到了广泛的应用,已经作为了移动通信的一种辅
随着光网络的发展与普及,作为未来Internet骨干支撑的WDM光网络组网技术成为主流趋势。同时,随着光学技术的日益成熟以及视频会议、远程教学等多播业务的日益兴起,使得光网络多
随着信息技术和现代科技的发展,银行卡作为一种现代化的支付工具受到人们的普遍欢迎。国内开发银行卡系统还使用传统的技术方法,银行卡的业务处理方式和技术处理方式与国际标准
IPTV之所以成为关注的焦点,最主要的一点在于它的宽带服务模式已形成了一个极具前景的产业。IPTV这种在互联网时代更为灵活的传媒方式对于未来电信运营商、内容运营商、IT服务
高效、高速和高集成是未来光子学器件的发展趋势。为实现这些目标,人们做了大量的研究并由此衍生了许多新兴学科,例如硅基光子学和表面等离子激元学。然而,硅材料和金属材料自身固有的缺陷限制了光子学器件某些性能的提升,例如集成光源和集成光波长转换器的实现仍需进一步的研究。新型光电材料的出现强烈冲击着现有的光子学器件的研究,其中包括稀土离子、量子点、石墨烯和超材料等等。它们具有低损耗、易于集成和人为可调控等优
随着移动通信的飞速发展,4G已经离我们越来越近,802.16m作为4G的候选标准之一,已经受到了广泛的关注。在航天“十一五”预研项目中基于802.16e原理样机开发调测的基础上,本文以80
目前,城市公众文字信息发布系统大多利用移动通信网络技术来实现。广播系统是很成熟的通信系统,利用现有模拟广播信道进行文字信息发布,不仅可以扩展广播系统的功能,还可以节
随着通信技术的快速发展,在信号处理领域和神经网络学界兴起的一种技术,成为学者们的研究热点之一,这就是盲源分离(Blind SignalProcess,BSP)技术。该技术起源于二十世纪九十年代
随着无线传感器网络(Wireless Sensor Network,WSN)的广泛应用,以及自由空间光通信(Free Space Optical,FSO)带宽高、容量大、安全性好等优势的凸显,使得兼具两者优势的无线
计算机和互联网的兴起带来的数据膨胀不可避免,照相机等设备的更新换代使得图片的尺寸越来越大,给图像处理带来了越来越大的内存消耗和计算负担。而且,图片尺寸的变大不代表