跳到主要内容

深度学习知识体系概览

什么是深度学习?

深度学习(Deep Learning) 是机器学习的一个分支,使用多层神经网络自动从原始数据中学习层次化的特征表示。"深度"指的是网络的层数——越深的网络能学到越抽象的特征。

与传统 ML 的核心区别

传统 ML 需要人工提取特征(如从图像中提取 HOG 特征),再交给模型学习。深度学习端到端(End-to-End) 学习——直接输入原始数据,自动学习从底层到高层的特征表示。这是它能在图像、语音、文本等领域碾压传统方法的根本原因。

为什么深度学习如此重要?

深度学习的成功依赖三个要素的同时成熟:

要素说明
大数据ImageNet(1400 万图片)、Common Crawl(万亿 Token 文本)
算力GPU(NVIDIA CUDA)、TPU、分布式训练
算法突破ReLU 激活、Batch Normalization、残差连接、Transformer

核心知识点

神经网络——万能函数逼近器

神经网络由输入层→隐藏层→输出层组成。万能逼近定理证明:一个足够宽的单隐藏层网络可以逼近任何连续函数。但实践中,深层窄网络比浅层宽网络更高效。

反向传播——让网络"学习"的算法

反向传播(Backpropagation)利用链式法则,从输出层到输入层逐层计算损失对每个参数的梯度。这是所有基于梯度的深度学习训练的基石。

主流架构演进

架构擅长领域核心创新
CNN图像、视频卷积核提取局部特征、权重共享
RNN/LSTM序列数据循环连接处理时间序列
Transformer文本、多模态自注意力机制,并行计算
GAN图像生成生成器 vs 判别器对抗训练
Diffusion图像/视频生成逐步去噪生成

训练技巧

深度网络的训练需要大量技巧来保证收敛和泛化:

技巧作用
Batch Normalization稳定训练,加速收敛
Dropout正则化,防止过拟合
残差连接解决深层网络退化问题
学习率调度Warmup + 余弦退火
权重初始化He/Xavier 初始化
混合精度训练FP16 训练,加速 + 省显存
梯度裁剪防止梯度爆炸

知识体系导航

主题核心内容面试重要度
神经网络基础感知机、多层网络、前向传播、权重初始化⭐⭐⭐⭐⭐
反向传播与梯度下降链式法则、SGD/Adam、学习率调度⭐⭐⭐⭐⭐
激活函数Sigmoid/ReLU/GELU/Swish、梯度消失⭐⭐⭐⭐
CNN 卷积神经网络卷积/池化、ResNet、图像分类⭐⭐⭐⭐
RNN 与 LSTM循环网络、长短期记忆、GRU⭐⭐⭐
Transformer 架构Self-Attention、多头注意力、位置编码⭐⭐⭐⭐⭐
注意力机制详解Scaled Dot-Product、Flash Attention⭐⭐⭐⭐⭐
训练技巧与策略BatchNorm、Dropout、混合精度⭐⭐⭐⭐
损失函数交叉熵、MSE、对比损失⭐⭐⭐⭐

学习路径

推荐顺序:先打好神经网络和反向传播基础 → 理解激活函数和训练技巧 → 重点学习 Transformer(后续 LLM 全靠它)→ CNN 和 RNN 按需了解。


相关链接