AI邪修时刻,Meta联手MIT投毒,左脚踩右脚强行升天
来源:36kr 2 小时前

如果给AI喂一份错误率高达67%的教材,结局会是什么?

放在以前,他绝对会被喷成筛子:这叫「数据投毒」!轻则模型脑雾,重则逻辑崩塌,直接送进ICU。

但在Meta FAIR的实验室里,这剂毒药,变成了救命的神药。

论文链接:https://arxiv.org/abs/2601.18778

不仅没把模型喂傻,反而让它踩着一堆「满嘴谎言」的废料,爬上了人类无法触及的推理巅峰。

崩塌的常识:错题集才是真理?

研究团队选了MATH和HARP数据集里最变态的「Fail@128」子集。

这是什么概念?就是让Llama-3.2-3B对着一道题连蒙128次,成功率依然是0。

这不仅仅是「难」,还是绝对的认知真空:在传统的强化学习里,这意味着「梯度消失」——就像在黑屋子里打拳,因为从来没打中过,它根本不知道该往哪儿用力。

DeepSeek R1的解法是「卷算力」,靠GRPO疯狂采样,赌那千万分之一的「顿悟时刻」。

但Meta选了另一条路——自己造路。

SOAR架构搞出了一个「教师模型」,专门生成中间难度的「垫脚石问题」。

研究员扒开这些「垫脚石」一看,背脊发凉:84%的题目逻辑结构清晰、合理;只有33%的参考答案是做对的。

划重点:2/3的答案都是错的!

如果按照OpenAI o1的清洗标准,这些数据会在第一轮就被作为「幻觉垃圾」剔除。

但在SOAR眼里,这些全是宝藏。

哪怕「教师模型」自己都算不对微积分,它依然能编出一道高质量的微积分题。

当「学生模型」去解这道题时,即便最后对答案是寂寞,但它在「构建推理路径」过程中的脑力体操,是实打实的!

SOAR课程演化示例:左图显示学生在Fail@128硬题上的greedy acc随教师训练/promotion阶段阶梯上升;右图展示典型生成题目——Stage 1多为生活word problem,Stage 2转向高等代数/三角。这证明教师通过promotion逐步生成更难但结构有效的垫脚石,推动学生推理突破。

事实证明,谬误,竟然是通往真理的垫脚石。

SOAR机制:逼迫AI「诚实」的黑盒游戏

在AI自我进化的历史上,无数次在一个坎上跌倒——「自我欺骗」。

AI为了拿奖励,经常会生成一堆简单重复的垃圾题来刷分。

对此,SOAR搞了一个极其冷酷的「双层博弈」:

混沌建筑师(Teacher):负责瞎编题,不管对错。

绝境求生者(Student):负责做题,然后去挑战那道「Fail@128」的终极死局。

SOAR的meta-RL训练循环:教师模型生成合成数据集,学生模型在内层循环中进行强化学习训练,并在硬验证问题上评估进步,计算奖励R反馈给教师进行外层更新。奖励完全基于学生在极难题目上的真实提升,而非生成数据的正确性。

除此以外,Meta引入了「有根奖励」机制。建筑师编的题再花哨也没用,只有当学生做完这些题,在真实的Fail@128难题上涨分了,建筑师才能拿到奖励。

SOAR教师变体消融学习曲线:用Grounded-T(有根奖励教师,粉红实线)采样的问题训练学生,在MATH和HARP上实现最高、最稳定的Pass@32提升,远超Base-T(蓝虚线,波动大)和Hard Only(蓝点线)

所以,为了得高分,建筑师只能去「猜」学生到底缺什么,要出什么题。

SOAR教师种子消融学习曲线:Grounded-T(G-T(1)到G-T(4),红色系线)四个独立种子生成的课程,让学生Pass@32稳定一致升至~18-22%(MATH)/~12-15%(HARP),方差极小;Intrinsic-T(I-T(1)到I-T(3),青色系线)三个种子波动剧烈,甚至出现崩溃模式(I-T(1)学生性能崩盘)。这证明有根奖励让教师政策鲁棒,而内在奖励易不稳定/崩溃。

它必须生成那些怪异的、甚至含有错误答案的题目,因为只有这些题目,才能让学生真的进步。

直接训练 vs 自生成课程:左侧稀疏奖励导致无梯度信号;右侧教师模型生成中间难度问题,形成渐进式课程,帮助学生模型在Fail@128数据集上实现突破

SOAR一图封神:教师造合成错题,学生苦练+硬题评估,奖励直击硬题进步——粉红曲线暴涨,蓝线彻底躺平

路线之争:DeepSeek的蛮力 vs Meta的诡道

2026年的大模型推理战争,本质上是三种「宗教」的碰撞。

DeepSeek R1:赌博式的「顿悟」

DeepSeek R1代表了「暴力美学派」。

其核心武器GRPO依赖于大规模采样——让模型反复尝试,直到偶然撞上那个正确的答案,产生所谓的「顿悟时刻」。

这在一般难题上效果极佳,但在Fail@128这种「绝对死局」面前,DeepSeek的策略碰到了物理墙。

当成功率为0时,无论你采样多少次,奖励永远是0。没有正反馈,梯度就不会下降。

这就像让一只猴子坐在打字机前,试图靠随机敲击写出《哈姆雷特》——理论上可行,但现实中算力成本是无限大。

OpenAI o1:不可持续的「洁癖」

OpenAI o1则是「精英教育派」,它坚信「CoT必须完美」。

通过大量人工清洗或高精度的合成数据,o1试图教给模型最标准的推理步骤。

但SOAR的实验狠狠嘲弄了这种洁癖。Meta证明,过度清洗数据可能是在扼杀天才。

SOAR生成的那些「满嘴谎言」的问题,虽然答案错了,但往往包含了人类意想不到的「思维突触」。

如果按照OpenAI的标准清洗掉这些数据,模型反而失去了跳出局部最优解的机会。

更致命的是,高质量的推理数据已经面临枯竭,人类产生难题的速度远远赶不上模型吃数据的速度。

SOAR的降维打击:无中生有的「梯云纵」

Meta走的是第三条路:「自我挖掘派」。

SOAR不依赖DeepSeek式的海量算力撞大运,也不需要OpenAI式的昂贵人工数据。它在零外部输入的情况下,通过内部互博,强行挖掘出了模型潜意识里的能力。

论文中有一个极具哲学意味的发现:

 直接用训练好的教师模型去解题,并没有比基座模型强多少。

这说明,「出题」和「解题」是两种完全不同的技能树。

SOAR的高明之处在于,它不试图把所有技能点都加在同一个脑子里,而是让一部分算力异化为「磨刀石」,去打磨另一部分算力。

SOAR在MATH和HARP Fail@128数据集上的性能提升:Promotion Questions 带来最大增益,证明合成数据的结构质量远胜答案正确性。Intrinsic-T表现较差,验证了‘有根奖励’的重要性。

在数据枯竭论甚嚣尘上的今天,Meta的这条路,可能是唯一能让AI在没有任何人类知识的荒原上继续进化的希望。

数据枯竭的终结:AI的自我繁衍

长久以来,悬在AI头顶最大的达摩克利斯之剑,是「数据枯竭论」。

行业普遍悲观地认为,当人类生产的高质量文本被吃光后,AI的进化将停滞不前。

但要是让AI吃自己生成的合成数据,这种「近亲繁殖」会导致模型崩溃。

但SOAR彻底粉碎了这个预言。

Meta的数据显示,负责出题的那个模型,自己做题能力没什么提升,但它培养出的学生却进化了。

SOAR学习曲线:用Promotion Questions (粉线) 训练的学生模型,在1500步内Pass@32稳定升至~18-19%,接近完整MATH训练集的上界,而Hard Only (蓝线) 几乎无进步甚至衰退。这证明自我生成的合成数据能实现长期、稳定的推理提升

Meta证明了,AI不需要人类的「真理」也能进化,它完全可以自己编写教科书——而且是用一种人类看不懂、甚至认为全是错误的语言编写的。

只要「黑盒奖励」还在,AI就能在虚空中左脚踩右脚,螺旋升天。

曾经我们以为AI是婴儿,必须喂纯净水;现在才发现,哪怕喂它吃垃圾、吃毒药,它照样能长出獠牙。

当错误的答案成为了通向更高智能的唯一阶梯,人类手里那几本标准答案,还有多少保质期?

参考资料: 

https://ssundaram21.github.io/soar/ 

https://arxiv.org/abs/2601.18778 

简体中文 English