基于GPU的通信基带信号处理并行算法设计

来源 :电子科技大学 | 被引量 : 2次 | 上传用户:liongliong448
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
SDR平台在对通信基带信号处理算法进行研究和实现时是不可或缺的。传统的SDR平台使用DSP和FPGA的混合架构,无法在达到高的系统吞吐率的同时进行快速开发。由于GPU提供了强大的并行计算能力和简单易用的编程平台,所以本文主要探索在SDR平台上使用GPU进行通信基带信号处理算法的设计和实现方法。首先,本文介绍了GPU的硬件结构和针对GPU进行编程的CUDA平台。通过对GPU的硬件结构和GPU的各级存储器的访问延时进行研究,得到了在GPU上运行算法的最优策略。其次,本文在GPU中实现了MIMO系统中的MMSE检测算法。讨论了在GPU中实现基本矩阵运算的方法。根据GPU的硬件结构,在GPU中使用三个级联的kernel实现了联合优化的MMSE检测算法。在MMSE检测算法中,矩阵求逆是最复杂的。本文通过对GPU共享内存的使用进行优化,高效地实现了基于Gauss Jordan算法的矩阵求逆运算。在GPU中仿真了16QAM调制的4?4 MIMO系统和4?8MIMO系统。最后,本文在GPU上实现了三种满足3GPP LTE标准的Turbo译码器,分别为传统Turbo译码器、分段并行Turbo译码器和全并行Turbo译码器。在传统Turbo译码器中,实现了多码字并行和8状态并行。在前向迭代和后向迭代中,通过使用共享内存和寄存器保证了对全局内存只进行一次访问。在外信息的计算中,通过使用共享内存,让8个线程交替对8个状态和8个时刻进行并行,充分利用了计算资源。在分段并行Turbo译码器中,进一步实现了单个码字的多子码并行,同时使用PIVI补偿算法保证了误码性能。在全并行Turbo译码器中,使用了CPU外层迭代配合GPU内层迭代的算法。在内层迭代中使用了两组共享内存对?,?进行乒乓更新,为了保证误码性能,对?的初始值和?的结束值使用非同步的方式进行更新。在GPU中实现了基于FULL-LOG-MAP和MAX-LOG-MAP算法的上述三种Turbo译码器。仿真结果显示,在GPU中实现的MMSE检测算法可以达到84Mbps的吞吐率,Turbo译码器算法能达到28Mbps的吞吐率。因此,GPU可以作为SDR平台中DSP和FPGA的替代方案。
其他文献
同时同频全双工技术可以有效提升频谱资源利用率,缓解当前频谱资源紧张现状,但由于其受到自干扰问题的限制,因此暂未被广泛使用。目前,同时同频全双工需要解决的核心问题就是
LTE-Advanced定位于更高的数据率和更大的系统容量,峰值速率目标为:在低速移动、热点覆盖场景下1Gbit/s;在高速移动、广域覆盖场景下100Mbit/s。为了满足这个目标LTE-Advanced必
虚拟MIMO技术利用不同终端的天线组成虚拟天线阵列(VAA),可以在突破传统MIMO系统对发射端和接收端配置天线间的距离至少为工作频段信号波长的1/4的限制的同时,利用MIMO天线间的
Ad Hoc网络作为一种快速发展、具有广泛应用场景的无线移动通信技术,越来越受到人们的关注和研究。而MAC协议位于网络协议栈的第二层,是负责节点共享和接入有限的信道资源的
直接序列扩频DS/SS(Direct Sequence Spread Spectrum)通信由于其良好的抗干扰性、低功率发射的保密性,以及可以在同一个频带内同时传输多个用户带来的较高的频谱利用率,在无线
随着国内3G牌照的发放,各个3G标准的大规模部署商用,通信领域迎来了新一轮的研究热潮。人们对移动通信数据、业务持续增长的需求和有限的系统频谱资源之间的矛盾成为研究下一代
NGN(Next Generation Network,下一代网络)是电信网络的未来发展方向。NGN网络所提出的呼叫与控制分离的思想为SIP(Session Initiation Protocol,会话初始化协议)技术的成熟和
多输入多输出(MIMO)是一种利用传输空间的自由度来成倍提升数据传输速率和可靠性的技术,已广泛应用于IEEE 802.16e/802.16m WiMax和HSPA+等无线通信标准中。大规模MIMO(Massi