
0:000:00
<p>人工智能正经历一场由大模型引发的革命。这些拥有数十亿甚至万亿参数的庞然大物,正在重塑我们对 AI 能力的认知,也构筑起充满挑战与机遇的技术迷宫——从计算集群高速互联网络的搭建,到训练过程中模型稳定性和鲁棒性的提升,再到探索更快更优的压缩与加速方法,每一步都是对创新者的考验。</p><p>面对快速演变的市场,企业如何在大模型投入与应用间寻求平衡?AI 从业者又该如何在这复杂的产业生态中找准定位,最大化自身价值?这些问题不仅关乎技术与商业,更直指 AI 产业的未来走向。</p><p>本期机器之心《智者访谈》邀请到腾讯机器学习平台部总经理/混元大模型负责人王迪先生,深入腾讯从 0 到 1 自研万亿级 MoE 大模型的历程。</p><p>王迪强调,大模型是一项跨领域的系统工程,需要在约束下高效整合工程、算法、数据和业务应用,对组织能力提出了前所未有的挑战。同时,业务团队需要明确模型的能力边界,辨识哪些问题适合用模型去解决,哪些则需要通过产品设计来应对,只有技术与业务紧密协作,才能快速推出满足应用需求的 AI 产品。</p><p>腾讯的这条实践之路,让我们得以窥见大模型研发和工程的整个链路:从基础设施的构建到训练推理框架的优化,再到业务场景的落地,为理解大模型提供一个独特的视角。</p><p>注:本期节目录制于2024年8月,如对话中提及年份相关时间点,默认「今年」为「2024年」。</p><p>【时间线】</p><p><strong>01:07 </strong>小模型成趋势的深层逻辑</p><p><strong>05:54 </strong>腾讯为何选择从零自研大模型</p><p><strong>10:37 </strong>MoE Scaling Law:腾讯的着眼点</p><p><strong>20:22 </strong>布局全模态:统一到 Transformer</p><p><strong>23:06 </strong>平台层如何衔接上层应用与下层算力</p><p><strong>35:39 </strong>技术路径选择:直觉从何而来?</p><p><strong>39:55 </strong>万亿 MoE 实践:稳定性、鲁棒性</p><p><strong>48:10 &n...