现在的你位置
我们刚刚完成了 Layer 1: 基础理论,搞懂了模型在大脑里是怎么“思考”的。 现在进入 Layer 2: 实现层。我们要聊聊 工程师最关心的问题:既然开源模型都这么强了,我还有必要自己训练吗?如果要有,怎么训才最省钱?
1. 核心决策:Prompt, RAG 还是 Fine-tuning?
做 AI 应用时,这是第一个要做的架构决策。很多新手会陷入误区:觉得微调出来的模型一定比 Prompt 强。
其实它们解决的是完全不同的问题:
| 方法 | 本质 | 解决的问题 | 缺点 | 类比 |
|---|---|---|---|---|
| Prompt Engineering | 提示词工程 | 短期记忆。教模型理解你当下的任务。 | 上下文有限,费 Token,每次都要重复教。 | 给实习生写一张便签条,告诉他今天干什么。 |
| RAG | 检索增强生成 | 外挂知识库。给模型补充它不知道的私有数据。 | 只能通过阅读理解回答,并没有改变模型的能力。 | 给实习生一本公司手册,让他照着查。 |
| Fine-tuning | 微调 | 肌肉记忆/内化。改变模型内部的参数,让它获得新的技 能或风格。 | 成本高,需要高质量数据,可能导致灾难性遗忘。 | 送实习生去培训班进修一个月。 |
✅ 什么时候必须微调?
- 为了“格式”:你希望模型输出非常特殊的 JSON 结构,Prompt 总是出错,微调一下就老实了。
- 为了“风格”:你希望模型说话像“鲁迅”或者“马斯克”,Prompt 很难模仿到位,微调可以学会这种语气。
- 为了“能力”:比如让一个通用模型学会看懂“医疗心电图数据”或者“法律文书”,这是知识注入。
- 为了“缩减成本”:把一个 GPT-4 级别的 Prompt 效果,蒸馏到一个 7B 的小模型上,跑在本地。
2. 训练的三个阶段:从“读万卷书”到“懂人情世故”
现在的 LLM(大语言模型)不是一次练成的,它经历了三个阶段: