深度学习优化器算法详解:梯度更新规则+缺点+如何选择

[复制链接]
2175 0
eline 发表于 2017-6-21 10:05:55 | 只看该作者 |阅读模式 打印 上一主题 下一主题
原标题:深度学习优化器算法详解:梯度更新规则+缺点+如何选择
         深度学习优化器算法详解:梯度更新规则+缺点+如何选择,三色源码网
文 | 不会停的蜗牛
CSDN AI专栏作家
在很多机器学习和深度学习的应用中,我们发现用的最多的优化器是 Adam,为什么呢?
下面是 TensorFlow 中的优化器
https://www.tensorflow.org/api_guides/python/train
   深度学习优化器算法详解:梯度更新规则+缺点+如何选择,三色源码网
在 keras 中也有 SGD,RMSprop,Adagrad,Adadelta,Adam等:
https://keras.io/optimizers/
我们可以发现除了常见的梯度下降,还有 Adadelta,Adagrad,RMSProp 等几种优化器,都是什么呢,又该怎么选择呢?
在 Sebastian Ruder 的这篇论文中给出了常用优化器的比较,今天来学习一下:
https://arxiv.org/pdf/1609.04747.pdf
本文将梳理:


  • 每个算法的梯度更新规则和缺点
      
  • 为了应对这个不足而提出的下一个算法
      
  • 超参数的一般设定值
      
  • 几种算法的效果比较
      
  • 选择哪种算法

1
优化器算法简述
首先来看一下梯度下降最常见的三种变形 BGD,SGD,MBGD, 这三种形式的区别就是取决于我们用多少数据来计算目标函数的梯度。这样的话自然就涉及到一个 trade-off,即参数更新的准确率和运行时间。
1. Batch gradient descent
梯度更新规则:
BGD 采用整个训练集的数据来计算 cost function 对参数的梯度:
缺点:
由于这种方法是在一次更新中,就对整个数据集计算梯度,所以计算起来非常慢,遇到很大量的数据集也会非常棘手,而且不能投入新数据实时更新模型
fori inrange(nb_epochs):
params_grad = evaluate_gradient(loss_function, data, params)
params = params - learning_rate * params_grad
我们会事先定义一个迭代次数 epoch,首先计算梯度向量 params_grad,然后沿着梯度的方向更新参数 params,learning rate 决定了我们每一步迈多大。
Batch gradient descent 对于凸函数可以收敛到全局极小值,对于非凸函数可以收敛到局部极小值。
2. Stochastic gradient descent
梯度更新规则:
和 BGD 的一次用所有数据计算梯度相比,SGD 每次更新时对每个样本进行梯度更新。对于很大的数据集来说,可能会有相似的样本,这样 BGD 在计算梯度时会出现冗余, 而 SGD 一次只进行一次更新,就没有冗余,而且比较快,并且可以新增样本。
fori inrange(nb_epochs):
np.random.shuffle(data)
forexample indata:
params_grad = evaluate_gradient(loss_function, example, params)
params = params - learning_rate * params_grad
看代码,可以看到区别,就是整体数据集是个循环,其中对每个样本进行一次参数更新。
缺点:
但是 SGD 因为更新比较频繁,会造成 cost function 有严重的震荡。
   深度学习优化器算法详解:梯度更新规则+缺点+如何选择,三色源码网
BGD 可以收敛到局部极小值,当然 SGD 的震荡可能会跳到更好的局部极小值处。
当我们稍微减小 learning rate,SGD 和 BGD 的收敛性是一样的。
3. Mini-batch gradient descent
梯度更新规则:
MBGD 每一次利用一小批样本,即 n 个样本进行计算。这样它可以降低参数更新时的方差,收敛更稳定。另一方面可以充分地利用深度学习库中高度优化的矩阵操作来进行更有效的梯度计算。
和 SGD 的区别是每一次循环不是作用于每个样本,而是具有 n 个样本的批次
fori inrange(nb_epochs):
np.random.shuffle(data)
forbatch inget_batches(data, batch_size=50):
params_grad = evaluate_gradient(loss_function, batch, params)
params = params - learning_rate * params_grad
超参数设定值:
n 一般取值在 50~256
缺点:
不过 Mini-batch gradient descent 不能保证很好的收敛性,

  • learning rate 如果选择的太小,收敛速度会很慢,如果太大,loss function 就会在极小值处不停地震荡甚至偏离。
    有一种措施是先设定大一点的学习率,当两次迭代之间的变化低于某个阈值后,就减小 learning rate,不过这个阈值的设定需要提前写好,这样的话就不能够适应数据集的特点。
      
  • 此外,这种方法是对所有参数更新时应用同样的 learning rate,如果我们的数据是稀疏的,我们更希望对出现频率低的特征进行大一点的更新。
      
  • 另外,对于非凸函数,还要避免陷于局部极小值处,或者鞍点处,因为鞍点周围的error 是一样的,所有维度的梯度都接近于0,SGD 很容易被困在这里。

鞍点就是:一个光滑函数的鞍点邻域的曲线,曲面,或超曲面,都位于这点的切线的不同边。
例如这个二维图形,像个马鞍:在x-轴方向往上曲,在y-轴方向往下曲,鞍点就是(0,0)
   深度学习优化器算法详解:梯度更新规则+缺点+如何选择,三色源码网
为了应对上面的三点挑战就有了下面这些算法。
应对挑战 ①
4. Momentum
SGD 在 ravines 的情况下容易被困住, ravines 就是曲面的一个方向比另一个方向更陡,这时 SGD 会发生震荡而迟迟不能接近极小值:
   深度学习优化器算法详解:梯度更新规则+缺点+如何选择,三色源码网
梯度更新规则:
Momentum 通过加入 γv_t

y3URZeAv333orEOh.jpg (4.82 KB, 下载次数: 0)

y3URZeAv333orEOh.jpg

y9mikbFQAM55jI8j.jpg (5.61 KB, 下载次数: 0)

y9mikbFQAM55jI8j.jpg

hCaA3jMVlAy1JNcx.jpg (24.68 KB, 下载次数: 0)

hCaA3jMVlAy1JNcx.jpg

XTUjMXFTBXCxC7cz.jpg (4.76 KB, 下载次数: 0)

XTUjMXFTBXCxC7cz.jpg

h87Zatkwa65DeWEe.jpg (4.39 KB, 下载次数: 0)

h87Zatkwa65DeWEe.jpg

MUzm5q4ud35B4fmF.jpg (7.91 KB, 下载次数: 0)

MUzm5q4ud35B4fmF.jpg

QEcOg4clEeLo7J7p.jpg (9.44 KB, 下载次数: 0)

QEcOg4clEeLo7J7p.jpg

Axd62fJ6Dv5uquVa.jpg (7.37 KB, 下载次数: 0)

Axd62fJ6Dv5uquVa.jpg

cik82RJ88aJSSVN8.jpg (4.84 KB, 下载次数: 0)

cik82RJ88aJSSVN8.jpg

MeX8isqh7iha78lA.jpg (4.1 KB, 下载次数: 0)

MeX8isqh7iha78lA.jpg

bRoD4PPEKdDLbEZs.jpg (461.17 KB, 下载次数: 0)

bRoD4PPEKdDLbEZs.jpg

xbOZU0b345z7o64u.jpg (585.27 KB, 下载次数: 0)

xbOZU0b345z7o64u.jpg
温馨提示:资源转载网络个人收藏,如有侵权或下载链接失效或密码不对请联系站长

1、在论坛里发表的文章仅代表作者本人的观点,与本网站立场无关。
2、论坛的所有内容都不保证其准确性,有效性,时间性。阅读本站内容因误导等因素而造成的损失本站不承担连带责任。
3、当政府机关依照法定程序要求披露信息时,论坛均得免责。
4、若因线路及非本站所能控制范围的故障导致暂停服务期间造成的一切不便与损失,论坛不负任何责任。
5、注册会员通过任何手段和方法针对论坛进行破坏,我们有权对其行为作出处理。并保留进一步追究其责任的权利。
收藏
收藏0
回复

使用道具 举报

*滑块验证:
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

专注源码资源免费分享
只要有下载币全站均可下

私人收藏网站非买卖网站

周一至周日9:00-23:00

反馈建议

282865654@qq.com 在线QQ咨询

赞助我们享尊贵分享

Powered by X3.3© 2019-2029 3se.cc Inc.( 京ICP备14050279号-2