机器人中的数值优化|【七】线性搜索牛顿共轭梯度法、可信域牛顿共轭梯度法 Line Search Newton-CG, Trust Region Newton-CG
往期回顾
机器人中的数值优化|【一】数值优化基础
机器人中的数值优化|【二】最速下降法,可行牛顿法的python实现,以Rosenbrock function为例
机器人中的数值优化|【三】无约束优化,拟牛顿法理论与推导
机器人中的数值优化|【四】L-BFGS理论推导与延伸
机器人中的数值优化|【五】BFGS算法非凸/非光滑处理
机器人中的数值优化|【六】线性共轭梯度法,牛顿共轭梯度法
线性搜索牛顿共轭梯度法 Line Search Newton-CG
线性搜索牛顿-CG方法,也称为截断牛顿方法。最基础的Newton step是通过求解线性系统的方程 ∇ 2 f k d k N = − ∇ f k \nabla^2 f_k d_k^N = -\nabla f_k ∇2fkdkN=−∇fk来实现的。然而,CG方法是用来求解正定系统的,当 x k x_k xk不接近解时,hessian阵 ∇ 2 f k \nabla^2 f_k ∇2fk可能具有负特征值。因此,一旦产生了一个负曲率的方向,我们就终止了CG迭代。