论文部分内容阅读
支持向量机是九十年代初发展起来的关于机器学习的新理论,是目前机器学习研究领域的热点。它利用严格的统计学习理论,结构风险最小化原则,凸二次规划问题的全局最优解,核函数,VC维等概念构建了其主要理论框架;目前已经广泛用于声音,图象,通信,经济,医学,生命科学等实际领域并取得了卓越的效果。
本文主要研究了以下几方面的问题:新型ε-不敏感损失函数支持向量诱导回归算法;基于快速训练算法的隐马尔可夫模型和支持向量机结合的混合识别系统;分解向前的支持向量机算法及两种降维支持向量机混合模型;改进的不对称支持向量机学习算法。
针对回归问题,提出了一种新型的基于ε不敏感损失函数支持向量诱导回归算法。新算法根据预测置信度大小对数据序列进行循环迭代处理,去掉置信度小的样本,提高了预测置信度,从而使预测数据更加可靠,经过本文的建模试验,得到了比传统SVM回归算法和神经网络更好的预测效果。
针对分类模型,提出了一种基于快速训练算法的隐马尔可夫模型(HMM)和支持向量机(SVM)的双层过滤混合识别系统。根据隐马尔可夫模型训练中不同结构的序列其L值分布范围不同的特点,结合支持向量机进行二次识别过滤,这一模型克服了传统用单一识别方法的不足,实现了HMM和SVM的优势互补。实验表明,新算法不但降低了传统多分类算法的计算复杂度,其平均识别率比起传统HMM有明显提高。
针对大样本和高维样本,提出了一种分解向前的支持向量机学习算法DFSVM和二种降维模型。DFSVM算法复杂度比传统块算法和标准SVM低;结合该算法,提出了一种基于主成分分析的降维支持向量机模型PCA-DFSVM和一种基于独立成分分析的降维支持向量机模型ICA-DFSVM。比较了两种降维模型在支持向量,计算时间和识别效率方面的情况,分析出ICA降维模型是较为理想的实际应用模型。
本文还建立了一种改进的不对称支持向量机迭代学习模型。采用调整Hessian矩阵对角参数的策略,以达到更加精确地分离不对称样本的目的。实验发现,不能简单利用正负两类样本所占百分比或固定参数来改变核函数的对角参数,而必须加之以可调整的权系数才能控制错分的样本数,迭代模型克服了传统算法的弊端,扩大了参数范围,比标准SVM具有更高的分辨率。