论文部分内容阅读
字典学习是实现信号与图像的稀疏表示、压缩感知的前提与理论基础。通过给定的训练样本,字典学习能自适应学习最优的原子集合,使得训练样本可以表示为字典中少量原子的线性组合,且相应的表示系数是稀疏的。压缩感知理论表明,字典的相干性是学习字典的一种重要属性。在稀疏编码过程中,它决定了l1范数惩罚问题与l0范数贪婪问题的解的支撑集。有效控制字典的相干性,不仅可以增加字典泛化性能,而且可以避免训练数据的过拟合与原子退化(两个原子相同)。因此,非相干字典学习被广泛应用于信号与图像的恢复、分类、分解与压缩感知等领域。近年来,非相干字典学习的理论与应用研究受到了国内外学者的极大关注,是当前字典学习与稀疏表示、压缩感知理论中热点与难点问题。本论文将主要围绕非相干字典学习及其应用开展研究。本论文的主要研究成果如下:(1)非相干字典学习字典学习过程中,字典中各原子之间的相干性是稀疏信号恢复的重要条件。针对非相干字典学习问题,本文从字典的相干性边界条件出发,利用矩阵极分解获取的α-紧框架来构造字典D的近似等角紧框架,提出两种新的非相干字典学习方法,分别定义为UNTF-INKSVD与UNTF-IP,有效的提高了字典的非相干性。与传统的INK-SVD算法不同,本文的UNTF-INKSVD算法最小化字典与参考UNTF(Unit Norm Tight Frame,UNTF)之间的原子对的内积平方和,并以此建立了新的字典学习目标函数,并将其转化为秩约束相关系数矩阵优化问题,利用优化惩罚(Majorized Penalty Approach,MPA)方法进行优化求解。与传统的IP算法不同,本文的UNTF-IP算法建立了新的非相干字典学习模型,在该模型中优化字典的格拉姆矩阵与参考格拉姆矩阵的距离,通过交替优化紧框架约束集、结构约束集与谱约束集,可以获得一个逼近等角紧构架的非相干性字典。除此之外,鉴于优化非相干字典的同时会增加其稀疏表示误差,本文在不改变其相干性的前提下,结合流形优化方法(Manifold Optimization,Man Opt)法优化非相干字典的稀疏表示性能。实验结果表明,本文方法学习的字典能逼近等角紧框架(Equiangular Tight-frame,ETF),实现最大化稀疏编码,在降低字典相干性的同时具有较低的稀疏表示误差,同时可以大大提高算法效率。(2)基于非相干字典学习及稀疏表示的单幅图像去雨算法研究面向图像去雨提出了一种非相干字典学习及稀疏表示算法。该算法在字典学习阶段,为降低有雨原子与无雨原子间的相似性,引入字典的非相干性,构建了新的目标函数,不仅可以保证有雨字典与无雨字典的可分性,而且学习的非相干字典具有类似于紧框架的性质,可以逼近等角紧框架。通过有雨字典与无雨字典对高频图像的稀疏表示,能够更好分离出高频图像中的有雨分量与无雨分量,将高频无雨分量与低频图像融合实现图像去雨。实验采用合成雨图与真实雨图对本文算法进行了验证,实验结果表明,本文算法所学习的非相干字典具有较好的稀疏表示性能,去雨后的图像雨线残留较少,边缘细节保持较好,视觉效果更为清晰自然。(3)面向判别性特征提取的字典学习及组织病理图像分类算法组织病理图像具有丰富的空间几何结构、多样的特征与较小的类别差异,如何准确提取判别性特征是组织病理图像分类的关键。针对当前面向组织病理图像特征提取的字典学习方法中存在着学习的无病样本字典与有病样本字典相似程度高、判别性弱的问题,提出一种新的面向判别性特征字典学习算法(Discriminative Feature-oriented Dictionary Learning Based on Fisher Criterion,FCDFDL)。该算法考虑了无病样本与有病样本字典之间的差异,基于Fisher准则构造目标函数的惩罚项,最小化学习字典的类内距离与最大化学习字典的类间距离,大大降低了无病样本与有病样本字典之间的相似性;同时,优化学习字典对同类样本的重构性能,并约束学习字典对非同类样本的重构性能。实验结果表明,所提方法学习字典的判别性更强,能够有效提取组织病理图像中的判别性特征。与其它同类字典学习方法相比,获得了更优的分类性能。(4)带两类相干性约束的判别性字典学习算法FCDFDL方法虽然建立了一种组织病理图像的判别性特征学习框架,但仅仅优化类内字典中所有原子与均值之间的欧氏距离、无病样本与有病样本字典之间的均值的欧氏距离,这种策略无法保证同类原子具有更相似的特征、非同类的原子具有明显的差异,其分类性能与鲁棒性受到制约。为了解决这一问题,提出了一种具有两类相干性约束的判别性字典学习算法(Coherence Constrained Discriminative Dictionary Learning,CCDDL),该算法同时考虑了字典类内原子与类间原子的相干性约束,并将其作为字典学习目标函数的惩罚项,可以有效解决类内原子差异大于类间原子差异的问题。优化后的学习字典更能准确衡量样本之间的相似性和差异性,能有效提高特征向量的类内鲁棒性和类间判别性,从而提高分类性能。