基于韦增欣等的共轭梯度参数的修正共轭梯度算法

来源 :重庆师范大学 | 被引量 : 0次 | 上传用户:zua263net
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
本文基于韦增欣等的共轭梯度参数,提出一些修正共轭梯度算法,建立了这些算法的收敛性定理,并通过大量的数值试验检验所提出的算法的有效性.  第一章介绍了非线性共轭梯度法的基本知识,一些已有的共轭梯度法全局收敛性的结果,本文的主要工作以及一些重要引理和假设.  第二章,基于韦增欣等的共轭梯度参数,我们提出了四个修正的非线性共轭梯度法,分别称为NVLS,NVPRP*,NVHS*以及NVLS*方法.在强Wolfe线搜索条件且0<σ<1下证明了NVLS方法的充分下降性和全局收敛性;在强Wolfe线搜索条件且0<σ<4/1下证明了NVPRP*方法的充分下降性和全局收敛性;在强Wolfe线搜索条件且0<σ<3/1下证明了NVHS*方法的充分下降性和全局收敛性;在强Wolfe线搜索条件且0<σ<2/1下证明了NVLS*方法的充分下降性和全局收敛性;数值结果表明,NVPRP*方法优于NVPRP方法,NVHS*方法优于NVHS方法,NVLS*方法优于NVLS方法.  第三章,我们提出了一个双参数的共轭梯度法簇,称为THCG*方法,它可被看作是作者在本文第二章中提出的NVPRP*,NVHS*和NVLS*方法的凸组合.在强Wolfe线搜索条件且此处为公式下证明了THCG*方法的充分下降性和全局收敛性.数值结果表明,THCG*方法虽然略差于NVHS*方法,但是比PRP,NVPRP*,NVLS*,THCG方法都好.  第四章,我们分别对第二章的NVPRP*, NVHS*和NVLS*方法进行修正,提出MDPRP*, MDHS*,MDLS*方法.当μ≥0时,在强Wolfe线搜索条件且0<σ<4/1下证明了NVPRP*方法的充分下降性和全局收敛性;在强Wolfe线搜索条件且0<σ<3/1下证明了NVHS*方法的充分下降性和全局收敛性;在强Wolfe线搜索条件且0<σ<2/1下,证明了NVLS*方法的充分下降性和全局收敛性.当μ>2时,在Wolfe线搜索条件下分别证明了NVPRP*,NVHS*,NVLS*方法的充分下降性和全局收敛性.数值结果表明,MDPRP*方法优于NVPRP*方法,MDHS*方法优于NVHS*方法,MDLS*方法优于NVLS*方法.  第五章,我们提出了一个修正的Dai-Liao共轭梯度法,称为MDL*方法.在强Wolfe线搜索条件且0<σ<3/1下证明了MDL*方法的充分下降性和全局收敛性.数值结果表明,MDL*方法优于PRP,DL,MDL,NVHS*以及DY方法.
其他文献
二十世纪八十年代,美国著名物理学家Hopfield和Tank提出用人工神经网络方法求解线性规划问题,从此以后,这一领域的研究和应用得到了越来越多的关注。对比传统的优化算法,人工