论文部分内容阅读
作为一种重要的分析复杂系统的方法,时间序列预测在诸如:对太阳黑子数、电力需求和商品物价指数CPI的预测等场合都已取得了广泛应用。其面临的问题之一即在对原时间序列进行重构后的相空间中如何建模原系统,也正是机器学习所关注的。最近Huang等人针对前馈神经网络提出了一种简单、快速,且能保持较好学习性能的算法,称之为极限学习器(ELM)。以提升ELM的效率和解决其性能的不稳定为目的,本文分别提出了基于选择部分样本学习和选择部分学习器集成的改进措施,并应用于具体的时间序列预测。1.针对ELM面向全局学习导致其计算量相对较大的弱点,且鉴于时间序列具有任意点与其近邻点演变相似的特点,基于近邻点比非近邻点对于学习更重要的假设,本文提出了仅学习部分近邻样本的基于极限学习器的局部预测器(ELMLP)。在时间序列数据集上的实验验证了ELMLP提升效率的有效性,仅以牺牲少量的性能为代价,甚至在较大噪声背景下反而获得了性能的提升。这是因为ELMLP只需学习部分重要样本,从而避免了过多不重要样本所含噪声的干扰。2.针对ELM对其中参数的随机设置导致其性能的不稳定,本文提出了极限回归器的稀疏集成算法(SERELM)。实验结果验证了SERELM不仅缓解了ELM性能的不稳定,而且改善了其性能并优于另外两个最近的集成方法。另外,集成学习的优劣通常与多样性密切相关,而如何定义和度量多样性仍是一个问题,SERELM则利用l1-正则化绕开了这一问题。在对实验结果的进一步分析后,本文发现:很大程度上,回归中常用个体间的负相关性对多样性度量无效。通过对当前尚处争议的多样性定义和度量问题研究工作的总结,本文从直觉上初步提出对多样性的分析应该建立在对个体学习器所处的假设空间的差异分析基础上。