当大模型学会自我怀疑:从微软rStar2看AI推理的可信度困境
微软最新发布的14B参数数学推理模型rStar2-Agent,仅用510步强化训练就达到前沿水平。但这恰恰暴露了AI可信度的核心矛盾:越自信的机器越危险。
微软研究院悄悄扔出一枚深水炸弹:rStar2-Agent。这个14B参数的数学推理模型,用510步强化学习训练就冲到SOTA水平——快得让人不安。
论文里那些90%+的准确率数字很漂亮,但真正值得玩味的是评论区那句"永远别相信不会自我怀疑的机器"。当前AI发展像极了应试教育下的学霸:解题速度越来越快,但永远在已知框架里内卷。
所谓"可信推理"调查(arxiv.org/abs/2509.03871)揭示的悖论在于:模型越表现出人类式的确定性,其底层反而越脆弱。就像那个用510步就学会微积分的rStar2,它不会告诉你演算过程中的犹疑——而这恰恰是真实人类专家的价值。
开发者们正在面临双重标准:用户要求AI给出斩钉截铁的答案,但稍有差池就指责"缺乏可信度"。当微软用强化学习把训练步数压缩到三位数时,他们或许该在论文致谢里加上感谢人类学生还保留着犯错的权利。
(配图建议:论文中的训练效率曲线图,叠加手写体批注"510步=本科四年?")
现在点开arxiv链接的人,大概分两种:一种在找下一个落地场景的弹药,另一种在思考Green19那句"真正的弱点不是极端值,而是你"到底在骂谁。
发布时间: 2025-09-05 22:06