> 技术文档 > 2025暑期—05神经网络-BP网络

2025暑期—05神经网络-BP网络

按误差反向传播(简称误差反传)训练的多层前馈网络

线性回归或者分类不需要使用神经元,原有最小二程即可。求解

 J依次变小。使用泰勒展开,只看第一阶。

偏导是确定的,需要让J小于0的delta Wk

Wk构造完成后 J(Wk+1)已知,依次完成。构造出 内积,形成模的平方乘比例带负号。

梯度下降法,也是BP基本思想。

只看到坡的一小圈,下山要找下降最快的方向,一步一步向前走。沿负梯度走,步长alpha,所有的神经网络和深度学习都是这个原理。

前向传播

第i个输出神经元a 是上一层神经元向量和权值共同作用的结果。

由链式求导更新w权重矩阵。Sigmoid函数求导特性导致计算简便性。deta i 是隐含层 aj  连接第i个 神经元等效输出和第j个神经元输出 确定权值决定

神经元在长期进化过程中学会了求偏导,Hebb的生物学定义完全一直

先要算出delta 也就是隐含层向输出层等效输出,再求前一层,直到输入层,这也是反向传播的意思。