论文部分内容阅读
机器学习技术在近年取得了飞速的发展。在各类机器学习算法中,深度学习的表现最为突出,这类算法大幅突破了以往传统机器学习算法的性能瓶颈,在各类任务中达到了似乎于人、甚至超越人类的表现。这使得深度学习算法被大幅应用在各类任务中,这其中就包括了医学影像分析任务。然而,这一性能卓越的算法却有着天然的缺陷,这一缺陷就是它的“黑箱”特性,即算法的使用者无法理解算法内部运行的机制以及算法产生各类响应的原因。这一特性的原因在于深度学习算法中存在巨量的参数,导致问题维度很高并且过于抽象,从而失去了可解释性。因此,基于深度网络的计算机辅助诊断系统在实际应用中遇到了许多困难。现阶段算法大幅度应用的问题症结就在于这些模型本应是可解释的,即模型应为医生提供可以解释其诊断的理由。首先,本文针对可解释性的重要性进行了讨论。从原理和目的出发,对现有针对深度学习的可解释性研究进行了归纳分类,并针对具体应用,结合使用场景,说明了可解释性在生物图像分析算法的实际应用中是极为重要的。其次,本文提出了一个具备视觉上可解释性的深度网络结构,记作VINet,该网络可以在做出准确诊断的同时生成诊断的可视化解释。VINet是一个由重要性估计网络和分类网络组成的端到端模型。重要性估计网络为每个病例提供可视化的解释,分类器对病例进行诊断。在可视化解释的指导下,我们提出的特征破坏方法消除了分类器内部特征图中不相关的信息。这使分类网络可以专注于重要的特征并将其用作分类的主要参考信息。通过对两项损失函数的联合优化,本文提出的网络可以同时产生准确的诊断和对该诊断清晰的可视化解释。最终,为了分析本文中所提出的网络与其他可解释性研究的表现差异,一个公开的肺结节计算机断层扫描图像数据集被用于性能验证。多个实验的结果都验证了本文所提出方法生成的可视化解释具有极高的准确性。经过于其他方法性能的对比,证实了本文所述方法生成的可视化解释效果优于现存基线方法。