博客
关于我
中科大-凸优化 笔记(lec47)-最速下降法
阅读量:320 次
发布时间:2019-03-04

本文共 520 字,大约阅读时间需要 1 分钟。

全部笔记的汇总贴(视频也有传送门):

一、梯度下降法

d k + 1 = − ∇ f ( x k ) f ( x k + 1 ) − P ∗ f ( x k ) − P ∗ ≤ 1 − m M ≤ 1 − min ⁡ { 2 m γ α m a x , 2 m γ β M } K ∼ log ⁡ ( f ( x k ) − P ∗ )            线 性 收 敛 d^{k+1}=-\nabla f(x^k)\\\frac{f(x^{k+1})-P^*}{f(x^k)-P^*}\le1-\frac mM\le1-\min\{2m\gamma\alpha_{max},\frac{2m\gamma\beta}M\}\\ K\sim \log(f(x^k)-P^*)\;\;\;\;\;线性收敛 dk+1=f(xk)f(xk)Pf(xk+1)P1Mm1min{

2mγαmax,M2mγβ}Klog(f(xk)P)线

二、最速(陡)下降法

在这里插入图片描述

三、Gradient与Steepest Gradient的变种

1)坐标轮换法

在这里插入图片描述

2)若 f ( x ) f(x) f(x)在某些点不可微

在这里插入图片描述

例:

在这里插入图片描述

下一章传送门:

转载地址:http://aepq.baihongyu.com/

你可能感兴趣的文章
NISP国家信息安全水平考试,收藏这一篇就够了
查看>>
NIS服务器的配置过程
查看>>
NIS认证管理域中的用户
查看>>
Nitrux 3.8 发布!性能全面提升,带来非凡体验
查看>>
NiuShop开源商城系统 SQL注入漏洞复现
查看>>
NI笔试——大数加法
查看>>
NLog 自定义字段 写入 oracle
查看>>
NLog类库使用探索——详解配置
查看>>
NLP 基于kashgari和BERT实现中文命名实体识别(NER)
查看>>
NLP 时事和见解【2023】
查看>>
NLP 模型中的偏差和公平性检测
查看>>