Vol.43|ChatGPT 爆火,AI 时代如何突围「缺芯困境」

Vol.43|ChatGPT 爆火,AI 时代如何突围「缺芯困境」

Published on Feb 10
31分钟
Founder 100
0:00
0:00
<p>⬇<strong>【本期内容】</strong></p><p><strong>人工智能领域的新宠儿 ChatGPT 正在疯狂刷屏。</strong>但其创新和颠覆的背后,并不只是靠堆参数、堆样本、调算法。<strong>而容易被忽视的,是其支撑一切的算力基础设施:</strong></p><blockquote>据评估,采购一片英伟达顶级 GPU 成本为 8 万元,GPU 服务器成本通常超过 40 万元。对于 ChatGPT 而言,支撑其算力基础设施至少需要上万颗英伟达 GPU A100,一次模型训练成本超过 1200 万美元。</blockquote><p><u><strong>如果想要复刻、甚至超越 ChatGPT 的成就,必须要突围芯片和算力的「卡脖子」难题。</strong></u>目前国产芯片的发展面临两个机遇:</p><ul> <li>首先是缺芯困局下,国产化替代的呼声越来越高,这无疑给国内芯片创业者提供了一个发展的缓冲期。对于 2020 年创业做大算力芯片的<strong>后摩智能创始人 &amp; CEO 吴强来说,「在芯片成长早期,这个条件是国内独有的,我在美国是不敢做芯片创业的。」</strong></li> <li>ChatGPT 大火,人工智能发展对于大算力的需求,给予了芯片创业新的机会。在吴强看来,存算一体芯片可能是国产芯片算力弯道超车的机会。相比较传统的冯·诺依曼架构芯片,<strong>「存算一体」创新计算架构对工艺的依赖较弱,能用 28nm 工艺做出基于传统计算架构的其他 AI 芯片用 7nm,甚至 5nm 工艺才能实现的性能/能效比。要知道,这次 ChatGPT 背后采用的英伟达 GPU A100,就是采用 7nm 制程工艺。</strong></li></ul><p>本期播客,我们就邀请到顶级芯片学术会议(ISCA等)组委会委员、后摩智能创始人 &amp; CEO 吴强,来跟 Founder 100 栏目观察员王式一起聊聊,国内芯片创业的机遇和差异化优势。</p><p>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&n...