📍 开篇:这份图谱的边界
这是什么
一张 AI 工程认知地图,不是程序员技能树。
这不是什么
- ❌ 不是 Web 开发教程
- ❌ 不是后端工程入门
- ❌ 不是机器学习论文综述
- ❌ 不是深度学习数学推导
默认前置条件
本专栏默认读者已具备:
- 基本编程能力(Python/JavaScript)
- HTTP/API 调用基础
- JSON/数据结构理解
- Git/命令行操作
如果这些你还不会,先去补,不在本专栏展开。
为什么要有这份图谱
因为 AI 工程现在最大的问题不是"没资料",而是:
- 信息碎片化(Medium/Twitter/YouTube 一地鸡毛)
- 优先级混乱(不知道先学什么)
- 焦虑感爆棚(总觉得自己漏了什么)
这份图谱的作用:
- 建立坐标系 - 知道每个技术在哪一层
- 明确优先级 - 🔥⭐📚 清晰标记
- 提供路径 - 从入门到落地的完整轨迹
🗺️ AI 技术的四层建筑
┌─────────────────────────────────────────┐
│ 第四层:应用层 │
│ "我要用 AI 做什么" │
│ Prompt / RAG / Agent / MCP │
├───────────────────────── ────────────────┤
│ 第三层:能力层 │
│ "AI 现在能做什么" │
│ Reasoning / Multimodal / Audio / Long │
├─────────────────────────────────────────┤
│ 第二层:实现层 │
│ "AI 怎么做到的"(工程上会用到的) │
│ 训练 / 微调 / 优化 / 部署 │
├─────────────────────────────────────────┤
│ 第一层:理论层 │
│ "为什么能做到"(按需查询,不用现在学) │
│ ML / DL / Transformer / Tokenization │
└─────────────────────────────────────────┘
┌─────────────────────────────────────────┐
│ 第零层:生产系统层(横切关注点) │
│ "AI 项目最容易翻车的地方" │
│ 成本 / 安全 / 监控 / 评估 │
└─────────────────────────────────────────┘
第一层:理论基础层(✅ 已完成)
⚠️ 冷静声明:
99% 的 AI 应用工程问题,不是因为你不懂反向传播,而是因为:
- RAG 没设计好
- Prompt 不稳定
- 评估没体系
- 成本和延迟失控
这一层不用现在学,需要时再查。
1.1 机器学习基础
- 监督/无监督/强化学习(知道区别即可)
- 梯度下降/优化器(知道是"调参数"的算法)
- 损失函数(知道是"衡量错误"的指标)
1.2 深度学习原理
- 神经网络/反向传播(知道"训练循环"的概念)
- 激活函数/归一化(知道是"网络组件")
- 残差连接/Dropout(知道是"稳定训练"的技巧)
1.3 CNN 卷积神经网络(👀 视觉基础)
- 卷积核/Padding/Stride(知道是"提取特征的滤镜")
- Pooling 池化(知道是"降维")
- 历史地位(知道为什么被 Vision Transformer 挑战)
1.4 Transformer 详解
- Self-Attention 机制(知道是"关注重点"的机制)
- Q/K/V 矩阵(知道是注意力的内部实现)
- 多头注意力(知道是"并行处理")
- 位置编码(知道是"记住顺序"的方法)
1.5 Tokenization
- BPE/WordPiece/SentencePiece(知道是"切词"的算法)
- Vocabulary 构建(知道 Token 怎么来的)
- Vocabulary 构建(知道 Token 怎么来的)
- Token 长度影响(知道为什么 API 按 Token 计费)
1.6 Embedding (🗺️ 语义坐标)
- 向量空间(知道意义就是坐标)
- 余弦相似度(知道怎么算相关性)
- 语义运算(King - Man + Woman = Queen)
🔗 何时需要深入这一层:
- 做模型研究
- 读论文
- 面试答题
- 纯粹好 奇
第二层:实现层(🚧 进行中)
定位:工程上真的会用到的模型训练与部署技巧
2.1 模型训练与微调 🔥
场景:通用模型不够用,需要定制
决策树:Prompt 够用吗?→ 不够 → 微调
技术清单:
- 🔥 Fine-tuning vs Prompt - 决策边界
- 🔥 LoRA/QLoRA - 低成本微调(只训练 1% 参数)
- 🔥 Instruction Tuning - 指令微调
- 🔥 RLHF vs DPO - 对齐技术(DPO 更简单)
- 🔥 Synthetic Data - 用 GPT-4 生成训练数据
- ⭐ Full Fine-tuning - 全量微调
- ⭐ Distillation - 用大模型教小模型
- ⭐ Reward Modeling - 奖励模型训练
- 📚 PPO - RLHF 用的算法(不用深究)
- 📚 Self-Instruct/Evol-Instruct - 数据增强方法
2.2 模型优化与部署 🔥
场景:模型太大/太慢/太贵
目标:压缩/加速/降本
技术清单:
- 🔥 Quantization (INT4/INT8) - 量化(模型体积缩小 4-8 倍)
- 🔥 GGUF - 量化格式标准
- 🔥 vLLM - 生产推理引擎(比 HuggingFace 快 10 倍)
- 🔥 llama.cpp - CPU/Mac 推理
- 🔥 Ollama - 本地运行最简单工具
- ⭐ KV Cache - 解码加速原理
- ⭐ Continuous Batching - 动态批处理(vLLM 核心)
- ⭐ GPTQ/AWQ - 量化算法
- ⭐ TensorRT-LLM - NVIDIA 推理优化
- 📚 Flash Attention - 注意力加速(知道能加速即可)
- 📚 Speculative Decoding - 推测解码
2.3 Model Merging - 模型融合 🔥
场景:开源社区黑科技,平民玩家捷径
核心:不用训练,直接"拼接"模型能力
技术清单:
- 🔥 MergeKit - 融合工具
- 🔥 Frankenmerging - 暴力拼接不同模型
- 🔥 SLERP - 球面插值(平滑融合)
- 🔥 Task Arithmetic - 任务向量加减
- ⭐ DARE - 稀疏融合技术
- ⭐ TIES - 处理权重冲突
- 📚 融合原理 - 权重空间线性性(不用深究)
为什么重要:很多 HuggingFace 榜单前列的模型是"缝合怪"
2.4 模型架构演进 ⭐
场景:理解不同架构的优劣
核心:Transformer 还是主流,但有新挑战者
技术清单:
- 🔥 Transformer - 主流架构
- 🔥 Mixture of Experts (MoE) - Mixtral/DeepSeek-MoE
- ⭐ Mamba/SSM - 挑战者(状态空间模型)
- ⭐ Multi-Head Attention - 多头注意力
- ⭐ RoPE - 旋转位置编码
- ⭐ Flash Attention - 高效实现
- 📚 RWKV/RetNet - 线性复杂度架构
- 📚 Sparse Attention - 稀疏注意力
你需要知道的:
- Transformer 为什么是主流
- MoE 为什么能做大(稀疏激活)
- 长上下文的技术瓶颈在哪