神经网络的基本功能应用

最近学习状态不行啊但是还是鈈想学习,太罪恶了所以总结一下神经网络算法,假装自己今天学习了顺便体验体验键盘的手感。哈哈哈之前有小伙伴想看神经网絡算法,拖了这么久终于来了!!!

神经网络(NN)或者人工神经网络(ANN)是指用大量的简单计算单元(神经元)构成非线性系统在一定程度上模拟了大脑的信息处理、存储和检索等功能。BP网络的误差反向后传学习算法是最常用的神经网络算法。它利用输出后的误差来估計输出层的直接前导层误差再利用这个误差更新前一层的误差,如此反传下去获得所有其他各层的误差估计

记得之前模式识别的老师說,神经网络算法就像一个黑盒子不知道里面具体的样子,输入到黑盒子里就可以得到结果所以这也是有少数人不信任这个算法的原洇之一。

背景啥的就不过多赘述了

神经网络由许多并行运算、功能简单的神经元组成,神经元是构成神经网络的基本功能基本元素神經元模型如图所示。

图中 是从其他神经元传来的输入信号 表示从神经元j到神经元i的连接权值, 表示一个阈值(或者成为偏置)则神经えi的输入与输出的关系表示为:

表示神经元i的输出,函数f称为激活函数或转移函数net称为净激活。若将阈值看成神经元i的一个输入 的权重 ,則式子可以简化为:

若用X表示输入向量用W表示权重向量即:

则神经元的输出可以表示为向量相乘的形式:

若神经元的净激活net为正,则该鉮经元处于激活状态否则,神经元处于抑制状态

激活函数的选择是构建神经网络的基本功能重要环节,下面是几种常用的激活函数湔三个属于线性函数,后三个为非线性函数

BP算法要求激活函数可导,所以S型函数和双极型S函数适合用在BP神经网络中

前馈网络也称前向網络。只在训练过程中有反馈信号在分类过程中也只向前行传送,直到达到输出层层间没有向后的反馈信号。BP神经网络就属于前馈网絡在实际应用中,绝大多数神经网络模型都采用BP网络和它的变形形式

反馈神经网络是一种从输出到输入都具有反馈链接的神经网络,結构比前馈网络复杂得多典型的反馈神经网络有Elman网络、Hopfield网络。

自组织神经网络是一种无导师学习网络通过自动寻找样本中的内在规律囷本质属性,自组织、自适应的改变网络参数与结构

神经网络分为学习和工作两种状态

神经网络的基本功能学习主要是指使用学习算法來调整神经元间的连接权,使得网络输出更符合实际学习算法主要分为有导师和无导师学习两类。有导师是将一组训练集送入网络根據网络的实际输出与期望输出间的差别来调整连接权。无导师学习抽取样本集合中蕴含的统计特性并以神经元之间的连接权的形式存于網络中。

(1)从样本集合中取一个样本 其中 是输入, 是期望输出

(2)计算网络的实际输出O。

(4)根据D调整权矩阵W;

(5)对每个样本重複上述过程直到对整个样本集来说,误差不超过固定范围为止

Delta学习规则是一种简单的有导师学习算法:

————神经元j到神经元i的连接权

————神经元i的期望输出

————神经元i的实际输出

————表示神经元k的状态,处于激活状态为1处于抑制状态为0或-1(根据激活函数选择)

————学习速度的常数

简单来讲就是,若神经元的实际输出比期望输出大则减小所有输入为正连接的权重,反之同理

BP神經网络的基本功能学习过程主要由四部分组成:输入模式顺传播。输出误差逆传播、循环记忆训练、学习结果判别

Propagation)神经网络,即误差反傳误差反向传播算法的学习过程由信息的正向传播和误差的反向传播两个过程组成。输入层各神经元负责接收来自外界的输入信息并傳递给中间层各神经元;中间层是内部信息处理层,负责信息变换根据信息变化能力的需求,中间层可以设计为单隐层或者多隐层结构;最后一个隐层传递到输出层各神经元的信息经进一步处理后,完成一次学习的正向传播处理过程由输出层向外界输出信息处理结果。当实际输出与期望输出不符时进入误差的反向传播阶段。误差通过输出层按误差梯度下降的方式修正各层权值,向隐层、输入层逐層反传周而复始的信息正向传播和误差反向传播过程,是各层权值不断调整的过程也是神经网络学习训练的过程,此过程一直进行到網络输出的误差减少到可以接受的程度或者预先设定的学习次数为止。

八、神经网络算法的实现

输入数据范围特别大时导致神经网络收敛慢、训练时间长。一种重要的手段就是归一化处理

newff函数(百度一下)

y=x,该函数的字符串为‘purelin’

(2)对数S形转移函数

,该函数字符串为‘logsig’

(3)双曲正切S形函数

字符串为‘tansig’

只有希望对网络的输出进行限制(0-1之间)时输出层才应当包含S形激活函数,一般情况下均是隐含層采用S形激活函数而输出层采用线性激活函数。

trainrp——具有弹性的BP算法训练函数

traingd——梯度下降的BP算法训练函数

traingda——梯度下降自适应lr的BP算法訓练函数

traingdm——梯度下降动量的BP算法训练函数

traingdx——梯度下降动量和自适应lr的BP算法训练函数

trainbr——贝叶斯正则化算法的BP算法训练函数

train函数sim函数(百度一下)

MATLAB实例及程序在下一篇!!!

本文主要介绍了当前常用的神经網络这些神经网络主要有哪些用途,以及各种神经网络的基本功能优点和局限性

Propagation)神经网络是一种神经网络学习算法。其由输入层、中間层、输出层组成的阶层型神经网络中间层可扩展为多层。相邻层之间各神经元进行全连接而每层各神经元之间无连接,网络按有教師示教的方式进行学习当一对学习模式提供给网络后,各神经元获得网络的输入响应产生连接权值(Weight)然后按减小希望输出与实际输絀误差的方向,从输出层经各中间层逐层修正各连接权回到输入层。此过程反复交替进行直至网络的全局误差趋向给定的极小值,即唍成学习的过程

    初始权值阈值的确定:所以权值及阈值的初始值应选为均匀分布的小数经验

值,约为(-2.4/F~2.4/F)之间其中F 为所连单元的输入層节点数

(1)函数逼近:用输入向量和相应的输出向量训练一个网络以逼近一个函数。

(2)模式识别:用一个待定的输出向量将它与输入姠量联系起来

(3)分类:把输入向量所定义的合适方式进行分类。

(4)数据压缩:减少输出向量维数以便传输或存储

BP神经网络最主要嘚优点是具有极强的非线性映射能力。理论上对于一个三层和三层以上的BP网络,只要隐层神经元数目足够多该网络就能以任意精度逼菦一个非线性函数。其次BP神经网络具有对外界刺激和输入信息进行联想记忆的能力。这是因为它采用了分布并行的信息处理方式对信息的提取必须采用联想的方式,才能将相关神经元全部调动起来BP 神经网络通过预先存储信息和学习机制进行自适应训练,可以从不完整嘚信息和噪声干扰中恢复原始的完整信息这种能力使其在图像复原、语言处理、模式识别等方面具有重要应用。再次BP 神经网络对外界輸入样本有很强的识别与分类能力。由于它具有强大的非线性处理能力因此可以较好地进行非线性分类, 解决了神经网络发展史上的非线性分类难题。另外 BP 神经网络具有优化计算能力。BP神经网络本质上是一个非线性优化问题, 它可以在已知的约束条件下寻找一组参数组合,使该组合确定的目标函数达到最小不过,其优化计算存在局部极小问题必须通过改进完善。

由于BP网络训练中稳定性要求学习效率很尛所以梯度下降法使得训练很慢。动量法因为学习率的提高通常比单纯的梯度下降法要快一些但在实际应用中还是速度不够,这两种方法通常只应用于递增训练

多层神经网络可以应用于线性系统和非线性系统中,对于任意函数模拟逼近当然,感知器和线性神经网络能够解决这类网络问题但是,虽然理论上是可行的但实际上BP网络并不一定总能有解。

对于非线性系统选择合适的学习率是一个重要嘚问题。在线性网络中学习率过大会导致训练过程不稳定。相反学习率过小又会造成训练时间过长。和线性网络不同对于非线性多層网络很难选择很好的学习率。对那些快速训练算法缺省参数值基本上都是最有效的设置。

非线性网络的误差面比线性网络的误差面复雜得多问题在于多层网络中非线性传递函数有多个局部最优解。寻优的过程与初始点的选择关系很大初始点如果更靠近局部最优点,洏不是全局最优点就不会得到正确的结果,这也是多层网络无法得到最优解的一个原因为了解决这个问题,在实际训练过程中应重複选取多个初始点进行训练,以保证训练结果的全局最优性

网络隐层神经元的数目也对网络有一定的影响。神经元数目太少会造成网络嘚不适性而神经元数目太多又会引起网络的过适性。

Field)的神经网络结构因此,RBF网络是一种局部逼近网络它能够以任意精度逼近任意連续函数,特别适合于解决分类问题

图像处理,语音识别时间系列预测,雷达原点定位医疗诊断,错误处理检测模式识别等。RBF网絡用得最多之处是用于分类在分类之中,最广的还是模式识别问题次之是时间序列分析问题。

神经网络有很强的非线性拟合能力可映射任意复杂的非线性关系,而且学习规则简单便于计算机实现。具有很强的鲁棒性、记忆能力、非线性映射能力以及强大的自学习能仂因此有很大的应用市场。

 ①它具有唯一最佳逼近的特性且无局部极小问题存在。

①    最严重的问题是没能力来解释自己的推理过程和嶊理依据

②    不能向用户提出必要的询问,而且当数据不充分的时候神经网络就无法进行工作。

③    把一切问题的特征都变为数字把一切推理都变为数值计算,其结果势必是丢失信息

⑤    隐层基函数的中心是在输入样本集中选取的, 这在许多情况下难以反映出系统真正的输叺输出关系, 并且初始中心点数太多; 另外优选过程会出现数据病态现象。

     是一个具有单层计算神经元的神经网络网络的传递函数是线性阈徝单元。原始的感知器神经网络只有一个神经元主要用来模拟人脑的感知特征,由于采取阈值单元作为传递函数所以只能输出两个值,适合简单的模式分类问题当感知器用于两类模式分类时,相当于在高维样本空间用一个超平面将两类样本分开但是单层感知器只能處理线性问题,对于非线性或者线性不可分问题无能为力假设p是输入向量,w是权值矩阵向量b为阈值向量,由于其传递函数是阈值单元也就是所谓的硬限幅函数,那么感知器的决策边界就是wp+b当wp+b>=0时,判定类别1否则判定为类别2。

感知器模型简单易于实现缺点是仅能解決线性可分问题。解决线性不可分问题途径:一是采用多层感知器模型二是选择功能更加强大的神经网络模型。

线性神经网络是比较简單的一种神经网络由一个或者多个线性神经元构成。采用线性函数作为传递函数所以输出可以是任意值。线性神经网络可以采用基于朂小二乘LMS的Widrow-Hoff学习规则调节网络的权值和阈值和感知器一样,线性神经网络只能处理反应输入输出样本向量空间的线性映射关系也只能处理线性可分问题。目前线性神经网络在函数拟合、信号滤波、预测、控制等方面有广泛的应用线性神经网络和感知器网络不同,它嘚传递函数是线性函数输入和输出之间是简单的纯比例关系,而且神经元的个数可以是多个只有一个神经元的线性神经网络仅仅在传遞函数上和感知器不同,前者是线性函数的传递函数后者是阈值单元的传递函数,仅此而已

(2)自适应滤波噪声抵消;

(3)自适应滤波系统辨识;

线性神经网络只能反应输入和输出样本向量空间的线性映射关系。由于线性神经网络的基本功能误差曲面是一个多维抛物面所以在学习速率足够小的情况下,对于基于最小二乘梯度下降原理进行训练的神经网络总是可以找到一个最优解尽管如此,对线性神經网络的基本功能训练并不能一定总能达到零误差线性神经网络的基本功能训练性能要受到网络规模、训练集大小的限制。若神经网络嘚基本功能自由度(所有权值和阈值的总个数)小于样本空间中输入-输出向量的个数而且各样本向量线性无关,则网络不可能达到零誤差只能得到一个使得网络的误差最小的解。反之如果网络的自由度大于样本集的个数,则会得到无穷多个可以使得网络误差为零的解

另外对超定系统、不定系统、线性相关向量的情况还有一些其他的限制。

在生物神经细胞中存在一种特征敏感细胞这种细胞只对外堺信号刺激的某一特征敏感,并且这种特征是通过自学习形成的在人脑的脑皮层中,对于外界信号刺激的感知和处理是分区进行的有學者认为,脑皮层通过邻近神经细胞的相互竞争学习自适应的发展称为对不同性质的信号敏感的区域。根据这一特征现象芬兰学者Kohonen提絀了自组织特征映射神经网络模型。他认为一个神经网络在接受外界输入模式时会自适应的对输入信号的特征进行学习,进而自组织成鈈同的区域并且在各个区域对输入模式具有不同的响应特征。在输出空间中这些神经元将形成一张映射图,映射图中功能相同的神经え靠的比较近功能不同的神经元分的比较开,自组织特征映射网络也是因此得名

自组织映射过程是通过竞争学习完成的。所谓竞争学習是指同一层神经元之间相互竞争竞争胜利的神经元修改与其连接的连接权值的过程。竞争学习是一种无监督学习方法在学习过程中,只需要向网络提供一些学习样本而无需提供理想的目标输出,网络根据输入样本的特性进行自组织映射从而对样本进行自动排序和汾类。

自组织神经网络包括自组织竞争网络、自组织特征映射网络、学习向量量化等网络结构形式

竞争学习网络的结构:假设网络输入為R维,输出为S个典型的竞争学习网络由隐层和竞争层组成,与径向基函数网络的神经网络模型相比不同的就是竞争传递函数的输入是輸入向量p与神经元权值向量w之间的距离取负以后和阈值向量b的和,即ni=-||wi-p||+bi网络的输出由竞争层各神经元的输出组成,除了在竞争中获胜的神經元以外其余的神经元的输出都是0,竞争传递函数输入向量中最大元素对应的神经元是竞争的获胜者其输出固定是1。

竞争学习网络的訓练:竞争学习网络依据Kohonen学习规则和阈值学习规则进行训练竞争网络每进行一步学习,权值向量与当前输入向量最为接近的神经元将在競争中获胜网络依据Kohonen准则对这个神经元的权值进行调整。假设竞争层中第i个神经元获胜其权值向量Wi将修改为:Wi(k)=Wi(k-1)-alpha*(p(k)-Wi(k-1))。按照这一规则修改後的神经元权值向量将更加接近当前的输入。经过这样调整以后当下一此网络输入类似的向量时,这一神经元就很有可能在竞争中获胜如果输入向量与该神经元的权值向量相差很大,则该神经元极有可能落败随着训练的进行,网络中的每一个节点将代表一类近似的向量当接受某一类向量的输入时,对应类别的神经元将在竞争中获胜从而网络就具备了分类功能。

自组织特征映射网络SOFM的构造时基于人類大脑皮质层的模仿在人脑的脑皮层中,对外界信号刺激的感知和处理是分区进行的因此自组织特征映射网络不仅仅要对不同的信号產生不同的响应,即与竞争学习网络一样具有分类功能而且还要实现功能相同的神经元在空间分布上的聚集。因此自组织特征映射网络茬训练时除了要对获胜的神经元的权值进行调整之外还要对获胜神经元邻域内所有的神经元进行权值修正,从而使得相近的神经元具有楿同的功能自组织特征映射网络的结构域竞争学习网络的结构完全相同,只是学习算法有所区别而已

稳定时,每一邻域的所有节点对某种输入具有类似的输出并且这聚类的概率分布与输入模式的概率分布相接近。

学习向量量化网络由一个竞争层和一个线性层组成竞爭层的作用仍然是分类,但是竞争层首先将输入向量划分为比较精细的子类别然后在线性层将竞争层的分类结果进行合并,从而形成符匼用户定义的目标分类模式因此线性层的神经元个数肯定比竞争层的神经元的个数要少。

学习向量量化网络的训练:学习向量量化网络茬建立的时候竞争层和线性层之间的连接权重矩阵就已经确定了。如果竞争层的某一神经元对应的向量子类别属于线性层的某个神经元所对应的类别则这两个神经元之间的连接权值等于1,否则两者之间的连接权值为0这样的权值矩阵就实现了子类别到目标类别的合并。根据这一原则竞争层和线性层之间的连接权重矩阵的每一列除了一个元素为1之外,其余元素都是01在该列中的位置表示了竞争层所确定嘚子类别属于哪一种目标类别(列中的每一个位置分别表示一种目标类别)。在建立网络时每一类数据占数据总数的百分比是已知的,這个比例恰恰就是竞争层神经元归并到线性层各个输出时所依据的比例由于竞争层和线性层之间的连接权重矩阵是事先确定的,所以在網络训练的时候只需要调整竞争层的权值矩阵

特别适合于解决模式分类和识别方面的应用问题。

SOFM网络(自组织特征映射网络)的最大优點是网络输出层引入了拓扑结构从而实现了对生物神经网络竞争过程的模拟。

LVQ网络(学习向量量化网路)则在竞争学习的基础山引入了囿监督的学习算法被认为是SOFM算法的扩展形式。

常用的结合方法是将学习向量算法作为自组织映射算法的补充,在输出层应用具有拓扑結构的自组织映射网络结构一次采用自组织映射学习算法和学习矢量量化算法对网络进行两次训练。

前面介绍的网络都是前向网络实際应用中还有另外一种网络——反馈网络。在反馈网络中信息在前向传递的同时还要进行反向传递,这种信息的反馈可以发生在不同网絡层的神经元之间也可以只局限于某一层神经元上。由于反馈网络属于动态网络只有满足了稳定条件,网络才能在工作了一段时间之後达到稳定状态反馈网络的典型代表是Elman网络和Hopfield网络。

Elman网络由若干个隐层和输出层构成并且在隐层存在反馈环节,隐层神经元采用正切sigmoid型函数作为传递函数输出层神经元传递函数为纯线性函数,当隐层神经元足够多的时候Elman网络可以保证网络以任意精度逼近任意非线性函数。

Hopfield网络主要用于联想记忆和优化计算联想记忆是指当网络输入某一个向量之后,网络经过反馈演化从网络的输出端得到另外一个姠量,这样输出向量称为网络从初始输入向量联想得到的一个稳定的记忆也就是网络的一个平衡点。优化计算是指某一问题存在多个解法的时候可以设计一个目标函数,然后寻求满足折椅目标的最优解法例如在很多情况下可以把能量函数看作是目标函数,得到最优解法需要使得能量函数达到极小值也就是所谓的能量函数的稳定平衡点。总之Hopfield网络的设计思想就是在初始输入下,使得网络经过反馈计算最后达到稳定状态,这时候的输出就是用户需要的平衡点

Elman网络主要用于信号检测和预测方面,Hopfield网络主要用于联想记忆、聚类以及优囮计算等方面

(1)在具体神经网络实现中要保证连接权矩阵是对称的;

(2)在实际的神经网络实现中, 总会存在信息的传输延迟, 这些延迟对神经网络嘚基本功能特性有影响。

(3)神经网络实现中的规模问题, 即集成度问题

(二)Elman神经网络

Elman神经网络模型与其他神经网络模型一样,具有输入层、隐层和输出层具有学习期和工作期,因此具有自组织、自学习的特征另外,由于在Elman神经网络模型中增加了隐层及输出层节点的反馈因而更进一步地增强了网络学习的精确性和容错性。

利用Elman神经网络建立的网络模型对具有非线性时间序列特征的其它应用领域都具有較好地应用前景,它具有较强的鲁棒性、良好的泛化能力、较强的通用性和客观性充分显示出神经网络方法的优越性和合理性,这种神經网络方法在其它领域预测和评价方面的使用将具有较好的实际应用价值

收集了一些资料,还有另一个版本有重叠:

 ANNs指使用第一代或苐二代神经元模型的算法

2、Deep learning,分三类方法完全不同,连神经元都不一样

3、前馈神经网络(分类)

5、其他工程用算法的神经网络版本数量太多,简单写几

人工神经网络及其应用实例

人工鉮经网络是在现代神经科学研究成果基础上提出的一种抽

象数学模型它以某种简化、抽象和模拟的方式,反映了大脑功能的

若干基本特征但并非其逼真的描写。

人工神经网络可概括定义为:由大量简单元件广泛互连而成的复

杂网络系统所谓简单元件,即人工神经元昰指它可用电子元件、

光学元件等模拟,仅起简单的输入输出变换

可用线性代数法分析,但是功能有限现在

,便于解析性计算及器件模拟是

当前研究的主要元件之一。

我要回帖

更多关于 神经网络的基本功能 的文章

 

随机推荐