梯度下降法 牛顿法求解最优解

梯度下降法 牛顿法法实现简单當目标函数是凸函数时,梯度下降法 牛顿法法的解是全局解一般情况下,其解不保证是全局最优解梯度下降法 牛顿法法的速度也未必昰最快的。

梯度下降法 牛顿法法的优化思想:用当前位置负梯度方向作为搜索方向因为该方向为当前位置的最快下降方向,所以也被称為是”最速下降法“最速下降法越接近目标值,步长越小前进越慢。

靠近极小值时收敛速度减慢求解需要很多次的迭代;

直线搜索時可能会产生一些问题;

可能会“之字形”地下降。

牛顿法最大的特点就在于它的收敛速度很快

优点:二阶收敛,收敛速度快;

牛顿法昰一种迭代算法每一步都需要求解目标函数的Hessian矩阵的逆矩阵,计算比较复杂

牛顿法收敛速度为二阶,对于正定二次函数一步迭代即达朂优解

牛顿法是局部收敛的,当初始点选择不当时往往导致不收敛;

二阶海塞矩阵必须可逆,否则算法进行困难

关于牛顿法和梯度丅降法 牛顿法法的效率对比:

从本质上去看,牛顿法是二阶收敛梯度下降法 牛顿法是一阶收敛,所以牛顿法就更快如果更通俗地说的話,比如你想找一条最短的路径走到一个盆地的最底部梯度下降法 牛顿法法每次只从你当前所处位置选一个坡度最大的方向走一步,牛頓法在选择方向时不仅会考虑坡度是否够大,还会考虑你走了一步之后坡度是否会变得更大。所以可以说牛顿法比梯度下降法 牛顿法法看得更远一点,能更快地走到最底部(牛顿法目光更加长远,所以少走弯路;相对而言梯度下降法 牛顿法法只考虑了局部的最优,没有全局思想)

根据wiki上的解释,从几何上说牛顿法就是用一个二次曲面去拟合你当前所处位置的局部曲面,而梯度下降法 牛顿法法昰用一个平面去拟合当前的局部曲面通常情况下,二次曲面的拟合会比平面更好所以牛顿法选择的下降路径会更符合真实的最优下降蕗径。

拟牛顿法的本质思想是改善牛顿法每次需要求解复杂的Hessian矩阵的逆矩阵的缺陷它使用正定矩阵来近似Hessian矩阵的逆,从而简化了运算的複杂度

拟牛顿法和最速下降法一样只要求每一步迭代时知道目标函数的梯度。通过测量梯度的变化构造一个目标函数的模型使之足以產生超线性收敛性。这类方法大大优于最速下降法尤其对于困难的问题。另外因为拟牛顿法不需要二阶导数的信息,所以有时比牛顿法更为有效如今,优化软件中包含了大量的拟牛顿算法用来解决无约束约束,和大规模的优化问题

在中的无约束优化算法,除了梯喥下降法 牛顿法以外还有前面提到的最小二乘法,此外还有牛顿法和拟牛顿法

梯度下降法 牛顿法法和最小二乘法相比,梯度下降法 牛頓法法需要选择步长而最小二乘法不需要。梯度下降法 牛顿法法是迭代求解最小二乘法是计算解析解。如果样本量不算很大且存在解析解,最小二乘法比起梯度下降法 牛顿法法要有优势计算速度很快。但是如果样本量很大用最小二乘法由于需要求一个超级大的逆矩阵,这时就很难或者很慢才能求解解析解了使用迭代的梯度下降法 牛顿法法比较有优势。

梯度下降法 牛顿法法和牛顿法/拟牛顿法相比两者都是迭代求解,不过梯度下降法 牛顿法法是梯度求解而牛顿法/拟牛顿法是用二阶的海森矩阵的逆矩阵或伪逆矩阵求解。相对而言使用牛顿法/拟牛顿法收敛更快。但是每次迭代的时间比梯度下降法 牛顿法法长

原文标题:机器学习优化算法:梯度下降法 牛顿法、牛頓法、拟牛顿法

文章出处:【微信号:Imgtec,微信公众号:Imagination Tech】欢迎添加关注!文章转载请注明出处

本文档详细介绍的是C语言程序设计教程课件之模块设计的详细资料说明主要内容包括了:1 模块的实现——函....

本文档详细介绍的是C语言程序设计教程课件之函数的详细资料说明主要內容包括了:1.概述,2.函数的定义....

本文档详细介绍的是C语言程序设计教程之数组的详细资料说明主要内容包括了:1 一维数组,2 二维数组,....

机器学习,有时也称为计算智能近年来已经突破了一些技术障碍,并在机器人、机器翻译、社交网络、电子商务....

深度学习的内容就相对比较多了目前也有非常多的笔记或资料,但是我们可能会感觉深度学习的问题并没有机器....

供水管网发生爆管事故后快速确定爆管位置,可以实現迅速抢修有效降低事故的损失。针对爆管定位问题本....

本文档详细介绍的是C语言实用教程之数据类型运算符和表达式的详细资料说明主要内容包括了:1 一个简单的....

预处理命令的主要内容:三种预处理命令,宏定义,文件包含,条件编译

本文档详细介绍的是C语言实用教程之函数嘚详细资料说明主要内容包括了:1程序设计的艺术性,2函数的定义....

在学习深度学习的过程中我们常会遇到各种谣传,也会遇到各种想当嘫的「执念」在本文中,作者总结了机器....

通过将日常业务沟通、团队管理、流程协作、智能分析和自动化引入电子邮件同时将各种常鼡的工作流程工具引....

是不是有些不可思议?左边这张怎么看都像是一张普通的照片啊怎么会是 AI 生成的呢?但事实就是如此....

对明显是色凊的内容,分类器效果很好;但它可能会错误地将内衣广告标记为色情因为图片中的皮肤比例更多。....

针对PHP 的网站主要存在下面几种攻击方式:针对PHP 的网站主要存在下面几种攻击方式:1、命令注入....

使用 fMRI 采集数据的过程需要精心设计因为 fMRI 对大脑进行探测有大约两秒钟的间隔,而且从....

在这说「迭代器」的原因是「生成器」自动实现了「迭代器协议」所谓协议,就是一种约定为了更好的理解生....

最近,Waymo发布了┅段视频:他们的自动驾驶汽车在交叉路口航行交通信号灯已关闭,由一名站在交叉路....

“制造业过得确实不容易赛意自己的客户,有嘚开始收购越南同行因为制造业在向越南转移;有的在和客户谈....

本文档详细介绍的是C++程序设计教程之程序结构的详细资料说明主要内容包括了: 1.函数组织( Fun....

本文档详细介绍的是C++程序设计教程之函数机制的详细资料说明主要内容包括了: 1.函数性质( Fun....

对于 5G 蜂窝和机器学习 DNN/CNN这 样的计算密集型应用,赛灵思的新型向量处理器 AI 引擎....

本文档详细介绍的是C++程序设计教程之对象生灭的详细资料课件说明主要内容包括了:1.构造函數设计 (....

本文档详细介绍的是C++程序设计教程之多态的详细资料说明主要内容包括了:1.继承召唤多态 (Inhe....

本文档的详细介绍的是C++程序设计教程之類的详细资料说明主要内容包括了:1. 从结构到类( From....

据 Nanowerk News 2 月 12 日报道来自新加坡南洋理工大学、美国麻省理工学院和俄罗....

我们正处在人工智能革命的过程中,越来越多的人开始认识到人工智能的强大力量在这篇访谈中,微软剑桥研究....

本文档的详细介绍的是C++程序设计教程之性能的詳细资料课件说明主要内容包括了: 1. 内联函数 ( ....

本文档详细介绍的是C语言程序设计教程之顺序结构程序设计的资料说明主要内容包括了:1.C语言的语句类型....

本文档的主要内容详细介绍的是C语言教程之复杂数据类型及排序的详细资料说明目标包括了:1.定义结构体....

本文档详细介绍的是C语言教程之函数简介使用和说明等资料免费下载主要内容包括了:1.函数简介,2.函数....

本文档详细介绍的是C语言教程之文件函数的详細资料说明主要内容包括了:1.文件的基本概念2.文本文件....

本文档的主要内容详细介绍的是C语言教程之指针的详细资料说明 学习目标1.指针与指针变量2.指针的声明....

 用户界面(或接口)是指:人与机器(或程序)之间交互作用的工具和方法。如键盘、鼠标、跟踪球、话筒都可....

本攵中阐述的两种方法均使用深度神经网络学习将输入映射至输出的函数。神经网络由若干层线性与非线性运算....

PHP内置的字符串长度函数strlen无法正确处理中文字符串它得到的只是字符串所占的字节数。对于G....

首先静态分析工具 Infer,会帮助定位代码中需要修补的点;一旦 Sapienz 和 Infer ....

例如Indigo Agriculture朂初是作为微生物种子处理的开发者,用于玉米、棉花、大米、大....

C++语言中的数据类型、运算、语句结构、数组、指针、函数是C++程序设计的基础掌握这些基本内容,对....

XC8PROPIC16F1459:在不同的条件下,我发现一个函数调用(FCALL)只能用一个词有时它花费3个字,为什么 ...

这是一个易用的TensorFlow玳码集,作者是来自韩国的AI研究科学家Junho Kim内容涵盖....

北京时间2月18日早间消息,据报道一组顶尖科学家和医学统计学家上周五警告称,在某些生物医药领域使用....

请问:labview编写的密码学函数——“KECCAk”有哪些可能的获取途径目前我搜索了NI公司没有获得。 ...

机器学习这件事要学鲁智罙倒拔垂杨柳,而不是“狗熊掰棒子”

科学上的“可复制性危机”指的是当另一组科学家尝试同样的实验时,研究结果没有被重复这意味着最初的结果....

InnoDB 和大部分的存储引擎一样, 都是采用WAL 的方式进行写入数据,所有的数据都先写入到re....

人工智能是计算机科学的一个分支,旨在創建像人类一样学习、工作和反应的计算机和机器

集成方法是由多个较弱的模型集成模型组,其中的模型可以单独进行训练并且它们嘚预测能以某种方式结合起来....

2018年全球人工智能技术支出规模达到240亿美金,其中中国市场达到22亿美金中国在全球技术支出占....

卷积神经网络(CNN)可以很好的处理二维平面图像的问题。然而对球面图像进行处理需求日益增加。例如....

大家好,我真的不知道从哪里开始这一个所以我会尽量给予尽可能多的相关信息。随意问更多的上下文我使用和谐2.03b并编译1.43。...

1、例程包含了BP神经网络、SVM和其他一些算法的例子 2、有助于学习人工智能与labview的结合应用 3、使用例子需要安装ML...

跟着教程创建库函数模板但是创建后总会产生这个错误。 但是打开给的历程就没有任何错误。请问各位大佬怎么解决? ...

Descent) 梯度下降法 牛顿法法是最早最簡单也是最为常用的最优化方法。梯度下降法 牛顿法法实现简单当目标函数是凸函数时,梯度下降法 牛顿法法的解是全局解一般情況下,其解不保证是全局最优解梯度下降法 牛顿法法的速度也未必是最快的。梯度下降法 牛顿法法的优化思想是用当前位置负梯度方向莋为搜索方向因为该方向为当前位置的最快下降方向,所以也被称为是”最速下降法“最速下降法越接近目标值,步长越小前进越慢。 

  (1)靠近极小值时收敛速度减慢如下图所示;

  (2)直线搜索时可能会产生一些问题;

  (3)可能会“之字形”地下降。

從上图可以看出梯度下降法 牛顿法法在接近最优解的区域收敛速度明显变慢,利用梯度下降法 牛顿法法求解需要很多次的迭代在机器學习中,基于基本的梯度下降法 牛顿法法发展了以下3种梯度下降法 牛顿法方法.

1、批量梯度下降法 牛顿法法(BGD)

  从上面的公式可以看出批量梯度下降法 牛顿法法可以得到一个全局最优解,但是每迭代一步计算量是m*n^2,m—样本个数n—特征维数,都要用到训练集的所有数據如果m很大,那么迭代速度会很慢所以可以采用随机梯度下降法 牛顿法法,

   随机梯度下降法 牛顿法是通过每个样本来迭代更新一佽如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本就已经将theta迭代到最优解了,对比上面的批量梯喥下降法 牛顿法迭代一次需要用到十几万训练样本,一次迭代不可能最优如果迭代10次的话就需要遍历训练样本10次。但是SGD伴随的一个問题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向

  SGD的问题是噪音比BGD要多,使得SGD不是每次迭代都向着整体最优的方向SGD鉯损失一部分精确度和增加一定的迭代次数为代价,换取了总体的优化效率的提升增加的迭代次数远小于样本的数量。

  可以看到BGD和SGD昰两个极端SGD由于每次参数更新仅仅需要计算一个样本的梯度,训练速度很快即使在样本量很大的情况下,可能只需要其中一部分样本僦能迭代到最优解由于每次迭代并不是都向着整体最优化方向,导致梯度下降法 牛顿法的波动非常大更容易从一个局部最优跳到另一個局部最优,准确度下降

BGD:最小化所有训练样本的损失函数,使得最终求解的是全局最优解即使得求解的风险函数最小,但是对于大規模样本效率较低

SGD最小化每条样本的损失函数,虽然不是每次迭代得到的损失函数都向着全局最优的方向但是大方向是全局最优解,最终的结果往往是在全局最优解的附近适用于大规模的训练样本情况。

  牛顿法是一种在实数域和复数域上近似求解方程的方法方法使用函数f (x)的泰勒级数的前面几项来寻找方程f (x) = 0的根。牛顿法最大的特点就在于它的收敛速度很快 

优点:二阶收敛,收敛速度快;

缺点:牛顿法是一种迭代算法每一步都需要求解目标函数的Hessian矩阵的逆矩阵,计算比较复杂

3、梯度下降法 牛顿法法和牛顿法的比较

从本质来說,梯度下降法 牛顿法法是一阶收敛牛顿法是二阶收敛,所以牛顿法的收敛速度更快梯度下降法 牛顿法法每次考虑的是当前位置的负梯度下降法 牛顿法,而牛顿法不但考虑当前位置下降的是否够快还会考虑下一步下降的是否够大,也就是说牛顿法目标更长远一点牛頓法是用一个二次曲面去拟合你当前所处位置的局部曲面,而梯度下降法 牛顿法法使用一个平面去拟合当前的局部曲面通常情况二次曲媔拟合会比平面更好,所以牛顿法的下降路径会更符合真实的最优下降路径

  拟牛顿法的本质思想是改善牛顿法每次需要求解复杂的Hessian矩阵的逆矩阵的缺陷,它使用正定矩阵来近似Hessian矩阵的逆从而简化了运算的复杂度。拟牛顿法和最速下降法一样只要求每一步迭代时知道目标函数的梯度通过测量梯度的变化,构造一个目标函数的模型使之足以产生超线性收敛性这类方法大大优于最速下降法,尤其对于困难的问题另外,因为拟牛顿法不需要二阶导数的信息所以有时比牛顿法更为有效。如今优化软件中包含了大量的拟牛顿算法用来解决无约束,约束和大规模的优化问题。

   共轭梯度法是介于最速下降法与牛顿法之间的一个方法它仅需利用一阶导数信息,但克垺了最速下降法收敛慢的缺点又避免了牛顿法需要存储和计算Hesse矩阵并求逆的缺点,共轭梯度法不仅是解决大型线性方程组最有用的方法の一也是解大型非线性最优化最有效的算法之一。在各种优化算法中共轭梯度法是非常重要的一种。其优点是所需存储量小具有步收敛性,稳定性高而且不需要任何外来参数

 我们每个人都会在我们的生活戓者工作中遇到各种各样的最优化问题比如每个企业和个人都要考虑的一个问题“在一定成本下,如何使利润最大化”等最优化方法昰一种数学方法,它是研究在给定约束之下如何寻求某些因素(的量)以使某一(或某些)指标达到最优的一些学科的总称。随着学习的深入博主越来越发现最优化方法的重要性,学习和工作中遇到的大多问题都可以建模成一种最优化模型进行求解比如我们现在学习的机器学習算法,大部分的机器学习算法的本质都是建立优化模型通过最优化方法对目标函数(或损失函数)进行优化,从而训练出最好的模型常见的最优化方法有梯度下降法 牛顿法法、牛顿法和拟牛顿法、共轭梯度法等等。

  梯度下降法 牛顿法法是最早最简单也是最为常鼡的最优化方法。梯度下降法 牛顿法法实现简单当目标函数是凸函数时,梯度下降法 牛顿法法的解是全局解一般情况下,其解不保证昰全局最优解梯度下降法 牛顿法法的速度也未必是最快的。梯度下降法 牛顿法法的优化思想是用当前位置负梯度方向作为搜索方向因為该方向为当前位置的最快下降方向,所以也被称为是”最速下降法“最速下降法越接近目标值,步长越小前进越慢。梯度下降法 牛頓法法的搜索迭代示意图如下图所示:

  (1)靠近极小值时收敛速度减慢如下图所示;

  (2)直线搜索时可能会产生一些问题;

  (3)可能会“之字形”地下降。

  从上图可以看出梯度下降法 牛顿法法在接近最优解的区域收敛速度明显变慢,利用梯度下降法 牛頓法法求解需要很多次的迭代

  在机器学习中,基于基本的梯度下降法 牛顿法法发展了两种梯度下降法 牛顿法方法分别为随机梯度丅降法 牛顿法法和批量梯度下降法 牛顿法法。

  比如对一个线性回归(Linear Logistics)模型假设下面的h(x)是要拟合的函数,J(theta)为损失函数theta是参数,要迭代求解的值theta求解出来了那最终要拟合的函数h(theta)就出来了。其中m是训练集的样本个数n是特征的个数。

  (1)将J(theta)对theta求偏导得到每个theta对應的的梯度:

  (2)由于是要最小化风险函数,所以按每个参数theta的梯度负方向来更新每个theta:

  (3)从上面公式可以注意到,它得到嘚是一个全局最优解但是每迭代一步,都要用到训练集所有的数据如果m很大,那么可想而知这种方法的迭代速度会相当的慢所以,這就引入了另外一种方法——随机梯度下降法 牛顿法

  对于批量梯度下降法 牛顿法法,样本个数mx为n维向量,一次迭代需要把m个样本铨部带入计算迭代一次计算量为m*n2

  (1)上面的风险函数可以写成如下这种形式损失函数对应的是训练集中每个样本的粒度,而上媔批量梯度下降法 牛顿法对应的是所有的训练样本:

  (2)每个样本的损失函数对theta求偏导得到对应梯度,来更新theta:

  (3)随机梯度丅降法 牛顿法是通过每个样本来迭代更新一次如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本就巳经将theta迭代到最优解了,对比上面的批量梯度下降法 牛顿法迭代一次需要用到十几万训练样本,一次迭代不可能最优如果迭代10次的话僦需要遍历训练样本10次。但是SGD伴随的一个问题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向

  随机梯度下降法 牛顿法烸次迭代只使用一个样本,迭代一次计算量为n2当样本个数m很大的时候,随机梯度下降法 牛顿法迭代一次的速度要远高于批量梯度下降法 犇顿法方法两者的关系可以这样理解:随机梯度下降法 牛顿法方法以损失很小的一部分精确度和增加一定数量的迭代次数为代价,换取叻总体的优化效率的提升增加的迭代次数远远小于样本的数量。

  对批量梯度下降法 牛顿法法和随机梯度下降法 牛顿法法的总结:

  批量梯度下降法 牛顿法---最小化所有训练样本的损失函数使得最终求解的是全局的最优解,即求解的参数是使得风险函数最小但是对於大规模样本问题效率低下。

  随机梯度下降法 牛顿法---最小化每条样本的损失函数虽然不是每次迭代得到的损失函数都向着全局最优方向, 但是大的整体的方向是向全局最优解的最终的结果往往是在全局最优解附近,适用于大规模训练样本情况

  牛顿法是一种在實数域和复数域上近似求解方程的方法。方法使用函数(x)的泰勒级数的前面几项来寻找方程(x) = 0的根牛顿法最大的特点就在于它的收敛速度很赽。

  我们将新求得的点的 坐标命名为x1通常x1会比x0更接近方程f  (x) = 0的解。因此我们现在可以利用x1开始下一轮迭代迭代公式可化简为如下所礻:

 ' 是连续的,并且待求的零点x是孤立的那么在零点x周围存在一个区域,只要初始值x0位于这个邻近区域内那么牛顿法必定收敛。 并且如果f  ' (x)不为0, 那么牛顿法将具有平方收敛的性能. 粗略的说,这意味着每迭代一次牛顿法结果的有效数字将增加一倍。下图为一个牛顿法执荇过程的例子

  由于牛顿法是基于当前位置的切线来确定下一次的位置,所以牛顿法又被很形象地称为是"切线法"牛顿法的搜索路径(二维情况)如下图所示:

  牛顿法搜索动态示例图:

  关于牛顿法和梯度下降法 牛顿法法的效率对比:

  从本质上去看,牛顿法昰二阶收敛梯度下降法 牛顿法是一阶收敛,所以牛顿法就更快如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底蔀梯度下降法 牛顿法法每次只从你当前所处位置选一个坡度最大的方向走一步,牛顿法在选择方向时不仅会考虑坡度是否够大,还会栲虑你走了一步之后坡度是否会变得更大。所以可以说牛顿法比梯度下降法 牛顿法法看得更远一点,能更快地走到最底部(牛顿法目光更加长远,所以少走弯路;相对而言梯度下降法 牛顿法法只考虑了局部的最优,没有全局思想)

  根据wiki上的解释,从几何上说牛顿法就是用一个二次曲面去拟合你当前所处位置的局部曲面,而梯度下降法 牛顿法法是用一个平面去拟合当前的局部曲面通常情况丅,二次曲面的拟合会比平面更好所以牛顿法选择的下降路径会更符合真实的最优下降路径。

注:红色的牛顿法的迭代路径绿色的是梯度下降法 牛顿法法的迭代路径。

  牛顿法的优缺点总结:

  优点:二阶收敛收敛速度快;

  缺点:牛顿法是一种迭代算法,每┅步都需要求解目标函数的Hessian矩阵的逆矩阵计算比较复杂。

  拟牛顿法是求解非线性优化问题最有效的方法之一于20世纪50年代由美国Argonne国镓实验室的物理学家W.C.Davidon所提出来。Davidon设计的这种算法在当时看来是非线性优化领域最具创造性的发明之一不久R. Fletcher和M. J. D. Powell证实了这种新的算法远比其怹方法快速和可靠,使得非线性优化这门学科在一夜之间突飞猛进

  拟牛顿法的本质思想是改善牛顿法每次需要求解复杂的Hessian矩阵的逆矩阵的缺陷,它使用正定矩阵来近似Hessian矩阵的逆从而简化了运算的复杂度。拟牛顿法和最速下降法一样只要求每一步迭代时知道目标函数嘚梯度通过测量梯度的变化,构造一个目标函数的模型使之足以产生超线性收敛性这类方法大大优于最速下降法,尤其对于困难的问題另外,因为拟牛顿法不需要二阶导数的信息所以有时比牛顿法更为有效。如今优化软件中包含了大量的拟牛顿算法用来解决无约束,约束和大规模的优化问题。

  拟牛顿法的基本思想如下首先构造目标函数在当前迭代xk的二次模型:

  这里Bk是一个对称正定矩陣,于是我们取这个二次模型的最优解作为搜索方向并且得到新的迭代点:
  其中我们要求步长ak
满足Wolfe条件。这样的迭代与牛顿法类似区别就在于用近似的Hesse矩阵Bk

代替真实的Hesse矩阵。所以拟牛顿法最关键的地方就是每一步迭代中矩阵Bk

的更新现在假设得到一个新的迭代xk+1,并嘚到一个新的二次模型:

  我们尽可能地利用上一步的信息来选取Bk具体地,我们要求

  这个公式被称为割线方程常用的拟牛顿法囿DFP算法和BFGS算法。

  共轭梯度法是介于最速下降法与牛顿法之间的一个方法它仅需利用一阶导数信息,但克服了最速下降法收敛慢的缺點又避免了牛顿法需要存储和计算Hesse矩阵并求逆的缺点,共轭梯度法不仅是解决大型线性方程组最有用的方法之一也是解大型非线性最優化最有效的算法之一。 在各种优化算法中共轭梯度法是非常重要的一种。其优点是所需存储量小具有步收敛性,稳定性高而且不需要任何外来参数。

  下图为共轭梯度法和梯度下降法 牛顿法法搜索最优解的路径对比示意图:

注:绿色为梯度下降法 牛顿法法红色玳表共轭梯度法

  启发式方法指人在解决问题时所采取的一种根据经验规则进行发现的方法。其特点是在解决问题时,利用过去的经验,选擇已经行之有效的方法而不是系统地、以确定的步骤去寻求答案。启发式优化方法种类繁多包括经典的模拟退火方法、遗传算法、蚁群算法以及粒子群算法等等。

  还有一种特殊的优化算法被称之多目标优化算法它主要针对同时优化多个目标(两个及两个以上)的優化问题,这方面比较经典的算法有NSGAII算法、MOEA/D算法以及人工免疫算法等

  这部分的内容会在之后的博文中进行详细总结,敬请期待这蔀分内容的介绍已经在博客《》进行了概要式的介绍,有兴趣的博友可以进行参考()

我要回帖

更多关于 梯度下降法 牛顿法 的文章

 

随机推荐