back-propagation(反向传播)算法是神经网络bp算法推导算法中优化参数的一种常用的算法它建立在Gradient Descent算法的基础上。
我们定义L代表神经网络bp算法推导算法的层数代表第j层第i个节点的激勵,代表将函数从第j层映射到第j+1层的参数矩阵,定义使其满足。
- 求出每个节点的所有样本的带权值的偏差之和
最后根据,按照梯度下降算法求解参数
看到这里,我们也许会对2、3步产生疑问2、3步时如何产生的?下面我们就来推导反向传播算法:
首先忽略正则部分这部汾对反向传播算法没有影响。为了看起来简洁明了我们假设训练集只有一个样本,将cost function重写为:
这里有个需要注意的地方:使用链式法则求J(theta)对
求偏导的时候不要忘记求和符号,因为输出层的每一个节点都是的函数
按照上面的步骤依次类推下去,我们发现后面的每一个偏導数都可以写成
综上所述,我们便可得知上面的四个步骤是如何得来的