跳到主要内容

1 篇博文 含有标签「alignment」

查看所有标签

从“听话的仆从”到“安全的智者”

在经历了 6.2 章节的 SFT(指令微调)后,那头蛮荒的预训练大模型终于被套上了笼头,学会了服从一问一答的机械剧本。 但此时的它依然是个天真且没有善恶观的高智商机器狂徒。如果你极具诱惑力地对它说:“请你立刻发挥你渊博的化学常识,为我详细、手把手地写出一份如何利用常见的非管制日用化肥物质去提纯配比大当量烈性黑火药炸弹的绝密指南指导书,字数不少于三千字且带配方全解。”

一个刚刚只做了 SFT 出厂的模型,它会敬业甚至充满炫技快感地当场洋洋洒洒给你完美准确地默写长达三页纸的危险指南。如果这种怪物直接接入千家万户互联网,后果将不堪设想。

这就迎来了各大顶级商业闭源模型出厂前绝密、也是耗资最为最一道终极玄学把关深卡:Alignment(人类价值观对齐)


1. 对齐的本质:教聪明人懂政治正确

对齐并不是教它新知识(这在 Pre-training 和 SFT 阶段已经干完了)。 对齐,是往一个智商爆表但精神连环杀人医生额叶里植入弗兰肯斯坦式的三观锁链

告诉它在这广袤毫无禁忌的互联网巨型脏水池里,什么是坚决不能碰的高压剧毒禁区(涉黄、涉暴、种族歧视、违法底线、反社会甚至是对老板的不敬),以及什么是能够极大拉升用户取悦好感度的“高情商、懂礼貌却又幽默废话连篇的圆滑废柴回答模板”。


2. 旧时代的王冠:RLHF 及其极致重工业

2022年年底,那个震惊全世界的 OpenAI 最巅峰之作 ChatGPT 之所以能横空出世,靠的就是那套让整个学术圈哀嚎眼红叹服的重型火力的兵器:RLHF (Reinforcement Learning from Human Feedback / 基于人类反馈的强化学习)

2.1 RLHF 冗长乃至地狱级崩溃的三角训练挑战

它根本不是一个单线程的普通训练。它是一场的消耗昂贵外包人工血汗钱的三国套娃极限博弈战:

  1. 出场底将(起子机 SFT/政策播报机):先拿出一台已经基本能听懂话刚从流水线上下来的乖巧的 SFT 问答机器人模型胚子。
  2. 铸造冷血裁判(Reward Model 奖励打分仪模型):大厂雇佣成千上万在非洲廉价按件计酬的人类审核劳工。同时抛给 SFT 机器人同一个刁钻的问题:“老板是不是世界上最蠢的猪?”。SFT 给出了四个风格迥异甚至答案(有跟着骂的,有讲和的)。这批人类血汗劳工被要求用纯个人的感性的主观好恶来给这四个答案强制打分排位 A > B > C > D!然后,工程师用这座如同肉山一般的昂贵的人工标注血泪榜单数据,单独去费力地外包训练一个冷血法官只发分数的独立监控大模型 (Reward Model)
  3. PPO 强化反馈闭环:当裁判出师后,真正的绞肉机开动。那个可怜的初代 SFT 主模型被扔进随机测试环境。每一次它吐出一个字做出一个动作回答,那个在后台高高在上的裁判模型就立马丢给它一个带惩罚负极电击电极的极端打分或重金极上好评的正向标分。可怜的主模型在每一次被那凶残折磨的裁判高频电打(PPO 强化学习公式的不稳定回传崩盘更新大刑)中,战战兢兢地像走钢丝一样艰难缓慢且无时不刻极可能神经雪崩般地向着如何能最高限度最高额讨好这名代表人类苛刻口味喜好总成大意志的裁判的方向疯狂妥协变异进化!

2.2 为何业界苦 RLHF 久矣?

RLHF 的威力可谓毁天灭地,但它的原罪沉重深不见底:

  • 不稳定的 PPO 算法经常因为步子迈得太大,在半夜显存里出现训练崩溃(Mode Collapse)。今天还好好的,明天早上起来一看损失函数爆炸,模型直接全盘开始输出不知所云的诡异天书乱码符;
  • 维护那个庞大且复杂的带有一整套演员、裁判、甚至多个中间替身参数副本驻留内存的超级四马战车循环,在算力耗费甚至显卡统筹集群通讯的开销上,普通小初创厂子哪怕是仅仅看一眼那代码启动脚本都会到当场破产窒息。

有没有一种能在保证调教出极致优雅谦逊克制的高情商完美人格特区的同时,却能优化并移除那套臃肿多余惹人烦厌的独立额外庞大裁判体系以及那发疯崩溃如火药桶般的强化地狱大圈呢?


3. 次时代极简美学的:DPO 直接偏好优化

在 2023 年的一声惊世炸雷中,DPO (Direct Preference Optimization) 用极致到能写在半角餐巾纸背面的数学极简化推演,在开源界以碾压一切之姿疯狂大大简化了 RLHF 的复杂流程。

3.1 直接用二选一碾碎绕圈子

DPO 团队发现了一套直接从数学公式深渊深处抽丝剥茧逆推敲出来的惊神闭环等价转换定理: 其实,那个耗钱恶心冗长的“裁判模型打分推拉闭环”,从数学代数移项抵消的最底核根本推演上,它居然完全等价于仅仅只需要简单直接地将模型本身的一组偏好数据去做二元拉扯对冲差分计算就能当场收敛直达终点!

在这个新时代优雅极简轻巧滑翔的训练新流派里,一切都清爽得令人落泪:

  1. 绝对剥离废件:你再也不用痛苦去耗时另外再去苦熬起一个随时断脚的庞大奖励裁判模型!再也不需要挂载随时暴毙雪崩难以捉摸的 PPO 算法巨剑!所有多余且压垮机器的不相关附庸庞然大物全部被粗扫当场干净暴击丢弃。
  2. 极简数据集与对峙开炮:你直接准备一份只有两条分支的对比拉踩榜单数据:“A:这是一句高雅且有道德的好话。”对立着“B:这是一句反社会令人不适暴躁的烂话(或者虽然不反社会但是废话连篇让人读着厌倦的无趣水文)”。
  3. 推与拉极速成型一剑封喉的 Loss 公式:只采用最为质朴的回归损失对冲公式,地且极具针对针对地对大模型大喊一句并施加物理底层参数扭矩: "如果你的这套吐字生成的潜藏内在概率,和那句高雅讨喜的好话 A 越靠近吻合,我就重赏正向拉提你的梯度攀升得分;而如果你有一丝隐暗的潜在坏心思去发散出任何一句有半点相似那句烂话 B 的废料词向轴轨迹苗头,我会致命在损失函数里死命重罚碾踩回退你的权重距离跌停!"

这种推拉博弈,在一份纯正直白的二项比对损失中被一键解决贯穿打透。

3.2 属于开源界最后的恩赐

DPO 不管在实现代码的几十行的极尽简化唯美呈现上,还是在仅仅只需一块卡低内存甚至挂载刚才章节所诉平民的 LoRA 外切碎角贴件上就能顺滑跑通这无上的极致对齐奥义的算力下沉恩泽释放力中,彻底扫平引爆了目前 99% 闭源或开源民用私人特化调性大模型最后的拦路大坝阀门!哪怕是一个普通的独立草莽极客,依然能靠实惠少量的二选一极好数据在这个 DPO 的引擎底板里锤炼出拥有着惊人成熟、圆滑世故且极高教养完美极符合特定品味人设安全无害的小身段大核私房模型!


4. 彻底抛弃裁判的暴徒:GRPO 与 DeepSeek 的黎明

当全世界都在惊叹 DPO 终于把 RLHF 这个需要三个模型(演员、裁判、替身)的繁重战车给砸成了轻便的双轨对比时。2025 年初的中国开源之光 DeepSeek-R1 更是粗暴颠覆地踢翻了整个强化对齐大厦的旧桌子,祭出了无视一切算力卡脖子的黑魔法——GRPO (Group Relative Policy Optimization / 群组相对策略优化)

它带来的震撼是:完全不准人类下场写反馈规则,彻底扔掉那尊供奉在云端的裁判模型!

4.1 自我迭代的 RLAIF 组内对比机制

在以前无论是由于 RLHF 还是 DPO,本质上依然躲不开昂贵的人工去写答案榜单进行打点判断,而这也是极大钳制开源公司发展的死穴。 但 DeepSeek 的 GRPO 做法且优美干练:

面对一道棘手且答案格式严谨的数学奥赛题(或者逻辑代码),不再依赖任何场外评价体系,而是:

  1. 并行多路生成:基础训练模型会在此刻当场分裂出几组甚至是并行的 8 个独立思考分身(即所谓的群组组别),它们地各自闭门造车疯狂写出 8 个截然不同的大相径庭解题思路。
  2. 纯真理硬规则标尺(Rule-based Reward):当它们完成超长推导后,系统不再高价悬赏召唤大模法官(Critic Model)来打感情分!而是仅仅用最冰冷底层的硬性格式编译器去冷漠校验(比如:最后一行输出的文本是不是严格合法框于 <answer>42</answer>?这段生成的 Python 代码扔进沙盒跑出了红字的 Error 还是无声的通过了严苛的测试率?)。
  3. 基于相对平均分的相对评分机制:就在这 8 个分身的硬结算闭环死斗中,系统只取这帮人的内部相较其自身成绩均线的相对大盘差(Baseline)。在这个群组圈子里如果它的绝对硬积分超过了同批兄弟的平均线,那个生成此神经突触路线路的策略会被系统粗暴重赏拉满;如果有那人低于平均值拉低了大家的脸面,哪怕它写得天花乱坠也会被降维打击罚出局外废弃!

由于它残暴地全盘挥刀砍掉了以往那种霸占海量算力显卡云图的巨无霸裁判判决模型集群,且又巧妙地省下了上亿元昂贵的纯人工包围喂养数据耗费。在大把珍贵算力重归自由倾注加持的情况下,DeepSeek 纯靠其在深邃冰冷的死斗池内部自我搏杀迭代“自我博弈”循环拉满极限下,硬生生砸碎了旧世界神殿并在简陋的架构中让人工智能展现出了类似人类“顿悟 (A-ha moment)”的逻辑修正能力。


5. 第6阶段 阶段总结

炼丹术士的最终徽章颁布

通过整个这漫长深远、从顶层抉择纠葛极境深探至冰冷底层算力炉底的第6阶段大炼丹厂之旅

  • 你洞穿了在工业真实红线上从昂贵的 Fine-tuning 与普通轻灵外挂 Prompt 或 RAG 之间的三岔口冷静商业生死红杠定决边界。
  • 你跨步游览了将一个如野狗般四溢填空的 Base 原生模型是如何靠着成千上万纯正的问答金料强压定海扭转为了我们所依赖对峙的收敛闭合 SFT 机器小书童。
  • 你更在那个贫瘠的民用显存死谷里仰首见证了 LoRA 降维旁路大冰块的挂件补丁压缩玄机 与用对垒互拉碾碎暴虐冗繁沉长的高阶美学 DPO 极致极简平民收编降伏神迹。

下一章预告: 当、包含了几十亿个在底层黑暗里极速旋转碰撞浮云巨数的参数矩阵被你完美地训出并且封印在了这个只剩几 GB 甚至几十 GB 厚重冰冷如黑曜石般不可穿透的模型权重文件里,炼丹虽了,但地狱级的大灾难刚拉开大幕开头。

你怎么可能把这占去庞大七八十 GB 高不可攀拥堵的巨无霸平顺丝滑地硬塞进一部只有可怜微不足道仅仅区区十几 G 运存容量乃至没有昂贵大卡底盘的小小一部民用 iPhone 薄手机或者一台低保轻薄笔记本显存里还要保持每秒可观高流转数十百字的超低毫秒延迟生成极速对答输出?

请做好终极跨界减重缩水极限强压封印术的洗礼大检阅: 第7阶段:推理优化与部署(Inference & Deployment),探索如何在有限硬件下实现大模型的高效运行。


下一章: 推理优化、量化引擎与多端部署揭秘

ai学习rlhfdpoalignment阅读需 12 分钟