论文部分内容阅读
单类分类是介于监督学习和无监督学习之间的机器学习任务,它能够有效地解决仅有一类样本训练分类器的问题和类别极端不平衡问题。迄今为止,涌现了大量的单类分类方法,其中最为常用的有一类支持向量机(one-class support vector machine,OCSVM)和支持向量数据描述(support vector data description,SVDD)。为了进一步提高单类分类器的分类性能,可以对多个单类分类器加以集成。然而,已有的单类分类器集成方法并未综合考虑差异性和选择性集成对集成性能的影响。基于此,本文在已有单类分类器集成的基础上,结合信息理论学习,对基于信息理论学习的SVDD集成开展了研究。1.提出了基于相关熵和距离方差的SVDD选择性集成方法。所提方法使用相关熵代替均方误差,用于度量集成的紧致性,从而构造出更为紧致的分类边界。同时使用训练样本到各最小包围球中心的距离的方差作为集成的差异性度量。此外,在目标函数中引入基于l1范数的正则化项,实现选择性集成。最后,利用半二次优化技术对所提选择性集成模型进行求解,实验结果表明,所提方法比相关方法具有更优的分类性能。2.提出了基于相关熵和Renyi熵的SVDD选择性集成方法。所提方法利用各个样本到集成中心距离的Renyi熵作为集成的差异性度量,并使用半二次优化技术对所提选择性集成模型进行求解。在人工数据集和标准数据集上的实验表明,所提方法具有更优的鲁棒性。