machine-learning-notes
Search...
Ctrl
K
梯度下降算法
Previous
凸优化问题
Next
随机梯度下降SGD
Last updated
5 years ago
Was this helpful?
梯度下降算法
随机梯度下降SGD
各类梯度下降算法的演化
参考资料
Deep Learning 之 最优化方法
从 SGD 到 Adam —— 深度学习优化算法概览(一)
深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)
10个梯度下降优化算法+备忘单
深度学习——优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)
动量法Momentum
牛顿动量Nesterov
AdaGrad
RMSprop
Adadelta
Adam
Nadam
AMSGrad
AdasMax
各类梯度下降算法的演化
返回顶层目录
optimization-on-loss-surface-contours
revolution-of-gradient-descent