论文部分内容阅读
自从上世纪70年代初首次商业应用以来,X射线计算机断层(Computed Tomography, CT)成像技术经过四十余年的发展,已然成为一种重要的现代医学成像手段之一。x线CT成像技术凭借其分辨率高、灵敏度高等优点在医学临床诊断中发挥了不可替代的作用。然而,在为人类健康做出重大贡献的同时,x线CT却因相对较高的辐射剂量限制了其自身的进一步发展。因此,研究适合临床应用的低剂量CT(Low-dose CT, LDCT)成像技术显得具有特别重要的意义。本文正是基于这一背景,在分析LDCT成像技术中若干问题的基础上,重点对影响LDCT成像质量的关键环节—成像算法进行了比较深入的研究。文中内容主要从LDCT含噪投影数据的平滑算法研究及传统滤波反投影(Filtered Back Projection, FBP)直接重建的LDCT图像质量改善算法研究两方面展开,主要研究工作如下:(1)提出了一种基于各向异性加权先验模型的LDCT正弦图最大后验概率(Maximum A Posterior, MAP)平滑算法。基于马尔科夫随机场(Markov Random Field, MRF)的二次先验模型是一种简单而易于求解的经典模型。本文在此基础上,引入了一个各向异性加权因子,构造出一种各向异性加权先验模型,并依据含噪正弦图中边缘与平坦区域对噪声抑制的不同需求,从理论上对各向异性加权先验模型的扩散特点进行了详细推导、分析。新先验模型能自适应地区分边缘与平坦区域,在扩散过程中依据不同区域而改变扩散强度与方向。而后将该模型融入到MAP统计迭代重建算法中,并将其应用到LDCT正弦图的噪声抑制中,结合FBP算法,实现了LDCT重建图像质量的改善。(2)基于字典学习及稀疏表示理论,提出了一种联合正则项模型,并将其与惩罚加权最小二乘优化算法相结合,形成一种LDCT含噪正弦图平滑算法。所构建的联合正则项包含字典学习正则项和二次方正则项,因而兼具边缘细节保持特性与噪声平滑特性,这主要得益于字典学习正则项能很好地刻画图像中边缘、结构细节等信息,而二次方正则项则能实现良好的噪声平滑效果。在分析联合正则项优势的基础上,结合惩罚加权最小二乘算法建立了算法模型。为了便于对所建立的算法模型进行求解,文中依据优化转换的思想,推导了相应的替代函数,建立了另一种新的算法模型,进而给出了算法的迭代求解公式,将原模型的求解问题简易化。对噪声抑制后的投影数据,采用FBP算法重建得到最终LDCT图像。基于仿真数据和实际扫描数据对提出的新算法性能进行了验证。实验中,通过对几种典型的LDCT正弦图平滑算法实验结果的视觉效果与SNR值的对比分析,验证了算法的有效性与优越性。(3)提出了一种小波域内的方向性非局部均值LDCT图像处理算法。算法以FBP从含噪投影数据直接重建的LDCT退化图像为处理对象,是一种重建后处理算法。在分析LDCT图像噪声及伪影特点的基础上,我们将非局部均值滤波思想引入到了LDCT图像处理中。针对经典非局部均值滤波算法中所采用的高斯加权核函数各向同性特点的不足,提出了一种改进的距离加权核函数—椭圆加权核函数。该加权核函数具有各向异性的特点,能在边缘保持与伪影抑制之间取得较好平衡。基于椭圆加权核函数,构建了一种改进的方向性非局部均值滤波算法。算法首先对LDCT质量退化图像进行二维平稳小波分解,之后对得到的各高频分量分别应用改进的方向性非局部均值滤波算法进行伪影抑制。算法对于不同方向的高频分量采用不同方向的椭圆加权核函数与椭圆匹配窗。最后基于处理后的各高频分量,经小波逆变换重建出LDCT图像。通过实验详细分析了参数对算法性能的影响,并给出了参数选择的建议。基于仿真的LDCT图像与实际扫描的LDCT图像进行了算法性能的验证,实验结果表明算法在伪影抑制与边缘保持方面具有较好的平衡效果。(4)提出了一种小波域内的LDCT图像形态分量分析后处理算法。形态分量分析是一种刚刚兴起不久的现代图像处理方法,新算法综合了这一新兴方法和小波变换的优势,具有良好的LDCT图像伪影去除效果。算法首先对LDCT图像进行二维平稳小波变换,之后基于各高频分量、采用字典学习方法分别进行字典的训练,进而得到组合字典。在此基础上,对小波分解的各高频分量采用形态分量分析的方法去除伪影,并进行小波逆变换得到质量改善的LDCT图像。通过对实际扫描的LDCT质量退化图像处理效果的分析,验证了算法的有效性与优越性。