数值优化
创始人
2024-05-31 19:23:53
Steepest Gradient Descent:
  • constant step size : \(\tau = c\) 固定梯度大小
  • Diminishing step size: \(\tau = c/k\) 每次迭代后,梯度都减小
  • Exact line search \(\tau = \arg \mathop{\min}\limits_{\alpha} f(x^{k} + \alpha d)\)
  • Inexact line search \(\tau \in { \alpha | f(x^{k}) - f(x^{k} + \alpha d) \geq -c \cdot \alpha d^{T} \bigtriangledown f(x^{k}) }\)

Inexact line search:

Newton's Method:


用泰勒展开到Hessian矩阵,这是一个二次型函数,最低点位置就是下次迭代的点。

问题:

  1. 需要计算Hessian的逆
  2. Hessian一定是正定的,如果是半正定的,会有奇异值是有零的,没法求逆。如果是不定的,那有可能会往增大的方向迭代
  3. 原函数、一阶导和二阶导都要是连续的
Practical Newton's Method:修正阻尼牛顿法,为了解决牛顿法非凸函数的不稳定性

  1. 寻找一个严格正定的M,去接近Hessian矩阵
  2. 求d的时候,可以用dM = f(x),线性求解出d。
  3. 不需要求解Hessian矩阵

怎么求M:

  • 如果函数是凸的:
  1. 那Hessian一定是正定的。选择 M = Hessian + 很小的I矩阵
  2. \([\bigtriangledown ^{2} f(x)]d = - \bigtriangledown f(x)\)
  3. \(Md = - \bigtriangledown f(x), M = LL^{T}\), 用Cholesky分解将M分解为上三角和下三角的形式,可以很快的将d求解出来
  • 如果函数是非凸的,那么Hessian是不定的:
  1. \(Md = - \bigtriangledown f(x), M = LBL^{T}\) B是一个对角矩阵
  2. B可以由b1,b2,b3...构成; b可能由一个常数(正的)或\(R^{2*2}\)的矩阵,这个矩阵一定有2个特征值,一正一负。
  3. Bunch-Kaufman Factorization
Quasi Newton's Method:拟牛顿法,省去Hession逆矩阵求解,仍然需要函数是凸的

思路依然是找一个M矩阵去贴近Hession矩阵\(\triangle x = x^{k+1} - x^{k}\)\(\triangle g = \bigtriangledown f(x^{k+1}) - \bigtriangledown f (x^{k})\)
构建公式:\(\triangle g \approx M^{k+1} \triangle x\)\(\triangle x \approx B^{k+1} \triangle g, M^{K+1} B^{k+1} = I\)

怎么挑选B

相关内容

热门资讯

中信证券:2026年度造纸行业... 转自:财联社【中信证券:2026年度造纸行业预计底部改善 金属包装行业将迎来春天】财联社11月21日...
财联社汽车早报11月21日 转自:财联社两部门发布《新能源汽车政府采购需求标准(征求意见稿)》11月20日,财政部会同工业和信息...
四川阆中警方凌晨通报 转自:北京日报客户端11月21日凌晨,四川省阆中市公安局发布“警情通报”:11月20日,阆中市一学生...
@近视的你 当心甜食正在悄悄损... 来源:央视新闻客户端 用眼过度、强光刺激……这些常见的视力“杀手”相信大家都不陌生但日常生活中有一个...
直击车展 | MoLA架构发布...   Hehson科技讯 11 月 21日上午消息,在华为乾崑生态大会上,华为智能汽车解决方案 BU ...