核心篇—神经网络
如果说张量是深度学习的“血液”,那么神经网络与优化算法就是它的“心脏”与“脉搏”。本部分将揭开机器“学习”的本质——这不再是简单的规则编写,而是通过数据驱动,在一个高维参数空间中寻找最优解的过程。
我们将从最简单的线性回归出发,推导至多层感知机(MLP),并深入剖析反向传播算法的数学细节。这里没有黑盒,我们将亲手拆解每一个齿轮,探究模型是如何通过梯度下降来修正错误,以及如何通过正则化手段在“记忆数据”与“总结规律”之间找到微妙的平衡。
学习路径:
- 掌握全连接网络的拓扑结构与非线性激活函数的关键作用。这里的目标不是为了“拟合一条线”,而是为了建立“数据输入 -> 模型结构 -> 损失计算 -> 梯度更新”的完整心智模型。
- 深入理解 SGD、Momentum、Adam 等优化器的数学原理及其在损失曲面上的行为。
- 通过正则化与超参数调优,解决过拟合问题,从“拟合历史”走向“预测未来”。