论文部分内容阅读
本文采用分而治之(Divide-and-Conquer)的思想,将复杂大问题分解为一系列简单小问题。首先将大样本集分解成若干个工作子集,在每个工作子集上抽取支持向量,集成各支持向量,并根据支持向量的重要性给出不同的错误惩罚度,即进行加权,最后训练出一个支持向量机模型,即论文提出的分解合作加权支持向量机。与标准支持向量机相比,在保持泛化精度基本一致前提下,分解合作加权支持向量机训练速度的提高是数量级的。增量学习为解决大规模样本而提出的,是支持向量机研究的一个热点,增量
本文提出了边界邻近支持向量机算法。只有支持向量才对分类器起决定作用,而这些支持向量只占整个样本数量很少的一部分,并且恰好靠近分类超平面的附近,这样边界邻近支持向量机首先筛选出超平面附近的支持向量,即边界邻近支持向量,然后利用邻近样本训练分类器。从而极大地减少了训练样本的数目,提高了训练速度。