
0:000:00
<p><strong>“某种意义上讲,人就是活在幻觉中,只要自恰就可以。”</strong></p><p>DeepSeek R1的横空出世,让“长思维链”这个技术圈的专业术语走进了公众视野。但在这场技术革命的背后,一个更深层的问题正在浮现:AI真的学会思考了吗?</p><p>从OpenAI的O1到DeepSeek的R1,从快思考到慢思考,从预训练到推理时代——这不仅是技术路径的演进,更像是人工智能向着真正的“智能”迈出的关键一步。当模型开始展现出类似人类的“深思熟虑”,当它们能够通过长达数万字的推理过程解决复杂问题时,我们是否正在见证通用人工智能(AGI)的曙光?</p><p>下一代推理新范式是什么?系统一和系统二的融合为何如此困难?</p><p>本期《会友镖局》,我们邀请到武威,这位从北大数学系走出、历经微软亚洲研究院和微软小冰的AI科学家,一位既有深厚数学功底又富有哲学思辨的技术人,将为我们深度解析推理范式革命的本质。</p><p>让我们跟随武威的视角,一起探索这场正在发生的AI思维革命。</p><p>👩 <strong>本期人物</strong></p><p><strong>主持人</strong>: 蚂蚁集团 友红 <br><strong>嘉宾</strong>: 蚂蚁技术研究院自然语言处理负责人 武威</p><p>⏱️<strong> 本期时间轴</strong></p><p><strong>02:27 R1的历史意义,开启长推理链时代<br></strong>从技术圈视角评价R1的两大贡献:一是以极低成本快速复现了OpenAI O1的效果,二是公开技术细节推动了整个行业发展。在O1发布后,由于OpenAI未公布任何技术细节,整个行业都在猜测其实现方式。直到R1公布了通过强化学习实现长思维链的方法,大模型领域才真正进入了“长推理链时代”。</p><p><strong>08:47 从Scaling Law到Test Time Scaling<br></strong>面对“Scaling Law是否见顶”的质疑,武威提出了新视角:当训练数据接近枯竭时,“Test Time Scaling”成为新的突破口。用建造宫殿来做比喻:预训练像收集材料,而推理时计算则是如何组合这些材料。即使材料有限,通过不同的组合方式仍能创造出无限可能。</p><p><st...