machine-learning-notes
Ctrlk
  • 封面
  • 目录
  • 前言
  • 个人前言
  • 机器学习前言
  • 机器学习面试
  • 数学基础
  • 微积分
  • 线性代数
  • 概率与信息论
  • 数值计算与优化
  • 梯度下降算法
    • 随机梯度下降SGD
    • 动量法Momentum
    • 牛顿动量Nesterov
    • AdaGrad
    • RMSprop
    • Adadelta
    • Adam
    • Nadam
    • AMSGrad
    • AdasMax
  • 概率图模型
  • 编程基础
  • linux
  • python
  • 数据结构与算法
  • Hadoop
  • Hive
  • Spark
  • TensorFlow
  • PyTorch
  • 机器学习
  • 机器学习概论
  • 特征工程
  • 感知机
  • k近邻
  • 朴素贝叶斯
  • 线性模型
  • 决策树
  • 支持向量机
  • 集成学习
  • 降维
  • EM算法
  • HMM隐马尔科夫模型
  • CRF条件随机场
  • 聚类
  • 主题模型
  • 知识点
  • 机器学习算法总结
  • 深度学习
  • 深度学习概论
  • ANN人工神经网络
  • 知识点
  • CNN卷积神经网络
  • 深度学习优化算法
  • RNN循环神经网络
  • LSTM长短期记忆网络
  • GRU门控循环单元
  • GNN图神经网络
  • 神经网络架构搜索
  • 强化学习
  • 强化学习概论
  • 马尔科夫决策过程
  • 动态规划
  • 无模型方法一:蒙特卡洛
  • 无模型方法二:时间差分
  • 无模型方法三:多步自举
  • 函数近似和深度网络
  • 策略梯度算法
  • 深度强化学习
  • 基于模型的强化学习
  • 强化学习前景
  • 自然语言处理
  • 自然语言处理概论
  • 自然语言
  • 语言模型和中文分词
  • word2vec
  • Seq2Seq模型和Attention机制
  • Self-Attention和Transformer
  • 知识图谱
  • 推荐系统
  • 推荐系统概论
  • 基础知识
  • 进阶知识
  • 业界应用
Powered by GitBook
On this page
  • 梯度下降算法
  • 各类梯度下降算法的演化
  • 参考资料

Was this helpful?

梯度下降算法

梯度下降算法

  • 返回顶层目录

  • 各类梯度下降算法的演化

  • 随机梯度下降SGD

  • 动量法Momentum

  • 牛顿动量Nesterov

  • AdaGrad

  • RMSprop

  • Adadelta

  • Adam

  • Nadam

  • AMSGrad

  • AdasMax

optimization-on-loss-surface-contours

各类梯度下降算法的演化

revolution-of-gradient-descent

参考资料

  • Deep Learning 之 最优化方法

  • 从 SGD 到 Adam —— 深度学习优化算法概览(一)

  • 深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)

  • 10个梯度下降优化算法+备忘单

    深度学习——优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)

Previous凸优化问题Next随机梯度下降SGD

Last updated 5 years ago

Was this helpful?