
0:000:00
<p>2025 年伊始,全球 AI 业界被 DeepSeek 刷屏。当 OpenAI 宣布 5000 亿美元的「星际之门」计划,Meta 在建规模超 130 万 GPU 的数据中心时,这个来自中国的团队打破了大模型军备竞赛的既定逻辑:用 2048 张 H800 GPU,两个月训练出了一个媲美全球顶尖水平的模型。</p><p>这一突破不仅撼动了英伟达万亿市值,更引发了整个行业的反思:在通往 AGI 的征程上,我们是否过于盲信算力规模,而忽视了一条更加务实且充满创新可能的路径?</p><p>与 2023 年「更大即更好」的粗放发展观不同,2025 年 AI 发展或将更像是一场精打细算的技术炼金:如何用最少的资源最大化模型效能,如何在特定场景实现极致效率。DeepSeek 已经展现出这种方式的威力——开发者总是倾向于选择性价比更高的开源方案,当千千万万的应用都以 DeepSeek 为基座,由此构建的生态将如何重塑 AI 产业格局?</p><p>本期《智者访谈》邀请到清华大学计算机系长聘教授、高性能计算研究所所长翟季冬,深入探讨大模型时代的 AI 算力优化之道。翟季冬教授指出,DeepSeek 实现百倍性价比提升的一个重要原因,是其在系统软件层面的深度创新。</p><p>「性能优化是一个无止境的过程,」翟季冬教授表示,在中国面临算力资源挑战的背景下,通过系统软件创新提升算力效能,是产业突围的关键。这不仅需要在编程语言、编译器、通信库、编程框架等多个技术层面发力,更需要建立起完整的基础软件体系。</p><p>当下,一个值得深思的现象是:尽管 AI 算力需求持续攀升,但国内众多智算中心的国产算力资源却存在闲置。供需错配的背后,暴露出基础软件体系的短板。</p><p>但困境也蕴含着重要机遇:如何打通从应用到系统软件,再到自主芯片的完整链路,探索出一条符合中国现实的发展路径?这不仅是技术创新,更是战略抉择。</p><p>在算力主导 AI 竞争力的时代,如何让每一份计算资源都能释放最大价值,这个问题本身,与答案同样重要。</p><p>【时间线】</p><p><strong>03:35 </strong>DeepSeek 与算力需求未来趋势</p><p><strong>06:41 </strong>算力效能评估新视角</p><p><strong>10:26 &n...