在第0阶段,我们知道了机器学习的闭环:给数据、定规则、跑训练。 但那个“模型函数”长什么样?
这一章的目标:搞清楚神经网络最底层、最原教旨主义的内部构造:多层感知机(MLP)是怎样通过“激活函数”扭曲空间的,而“反向传播”又是怎样精妙分发错误责任的。 我们将不留任何余地剖析它。
1. 为什么需要"深度"学习?
在第0阶段的猫狗分类例子里,如果所有猫都长得标准,一个简单的线性公式(画一条直线把猫和非猫分开)可能就够了。
但现实世界太复杂了:
但现实世界太复杂了:那些被拍下的猫可能正蜷缩成抽象的毛团而导致形状彻底畸变,也可能潜伏在暗灰色的草丛和阴影里被直接抹去了原有的辨识色。更别提由于设备老旧,有些照片直接 褪色成了纯黑白。
简单的线性分类器遇到这些情况直接歇菜。 这好比你想用一把直尺去测量海岸线的长度——工具太简单,无法描述复杂的现实。
为了处理这种**非线性(Non-linear)**的复杂问题,我们需要一个更复杂的脑子——神经网络(Neural Networks)。
2. 神经网络:模仿人脑的积木
2.1 神经元(Neuron)
生物神经元的工作方式很简单:

在生物学意义上,一根神经元依靠树突从四面八方接收其他相连同伴传来的电信号。接收完毕后,细胞体负责将所有杂乱的电流强度进行汇总累加,若累加的刺激强度越过了那条临界阈值并变得足够“兴奋”,它便会毫不犹豫地通过长长的轴突将这一股强大的电流脉冲直接发射到下一个神经元上去。
我们在电脑里造的人工神经元逻辑完全一样:
拆解开来,这里- 输入 ():从外界接收的信号(比如图片的像素点、前一层传来的特征)。
- 权重 ():表示这个输入有多重要。如果 很大,说明神经元对这个输入非常敏感。
- 偏置 ():神经元自己的"触底门槛",决定了它天生有多容易被激活。
- 求和与扭曲:先把前面三样东西算一算(),然后交给激活函数 (Activation Function) 进行扭曲。
2.2 多层感知机(MLP)
把很多神经元堆成多层,就是多层感知机(Multi-Layer Perceptron,MLP),也叫全连接网络:
这就是将神经元大规模堆叠并排布成好几个密集团队后的结构——全连接网络(Multi-Layer Perceptron,MLP)。它通常拥有三个严阵以待的区域:负责吞吐海量图片原始像素点的输入层,负责在黑暗黑盒里进行逐级特征抽取的庞大隐藏层,以及负责最终宣判概率结论(比如“这是个猫的概率是99%”)的输出层。
输入层 → 隐藏层1 → 隐藏层2 → 输出层
像素值 线条/边缘 形状/部件 是猫/不是猫

"深度"就是"层数多"。层数越多,模型能理解的概念就越抽象、越高级。
3. 激活函数:它到底是干嘛的?
问题:为什么神经元算完乘法和加法后,非要多此一举,加上一个"激活函数"?
答案:为了能画出弯曲的线,而不是只会画直线。