节目介绍:《AI Next》是微软亚洲研究院推出的一档利用 AI 技术制作的播客,内容聚焦 AI 前沿技术、科研趋势与社会影响。我们希望让听众在体验微软亚洲研究院最新研究成果的同时,聆听技术专家对 AI 发展的解读和深度洞察,在理解与思考中迎接 AI 的未来。作为一档由 AI 合成的播客栏目,《AI Next》播客音频和宣传视频背后包含微软亚洲研究院在生成合成 AI 领域的三项关键技术:VibeVoice 具备自然、富有表现力的语音合成能力,能够为最多4位说话者合成长达90分钟的高质量对话语音,为用户带来更灵动的声音互动感受。VASA 可将静态肖像与音频信号结合,合成情感逼真且拥有细腻面部表情的说话头像,为内容创作及辅助教育提供了全新的呈现方式。TRELLIS 则是一个 3D 物品生成模型,能依据文本提示或图片信息构建相应的 3D 效果,让复杂的概念设计可以在立体空间中被“看见”。目前,VASA 和 TRELLIS 技术可在微软的 Copilot 产品中体验,VibeVoice 也已在 Hugging Face 上开源。三项技术的加持将为内容创造者和听众带来 AI 技术演进的真实体验。《AI Next》的第一季主要聚焦当今智能发展的核心议题,探索前沿趋势。首期节目将对话微软亚洲研究院资深首席研究员杨凡博士,探讨 AI 推理的本质:它如何在速度与正确性之间权衡,如何实现“既有直觉、又讲逻辑”,以及智能体推理(agentic reasoning)如何为未来的智能突破铺平道路。这不仅是一场关于技术发展的交流,更是一场关于思考方式的探索。当 AI 学会“推理”,人类或许也将重新理解智能的边界。嘉宾介绍:杨凡博士现任微软亚洲研究院资深首席研究员,系统研究组负责人。他目前负责系统方向的研究战略规划,协调、管理系统组的研究、产品转化,以及公司内外的合作项目。他个人的主要研究兴趣为计算机系统,特别是大型分布式系统。他目前主要关注新兴应用 (如人工智能模型等) 及其所产生的新型计算机系统原理、设计和实现。他的多项技术成果都已开源并在微软公司 Bing、Azure、Office 等部门落地,其中多项成果均发表在系统顶级会议(如 OSDI/SOSP)上。本期技术名词:AI 推理(AI Reasoning):与依靠逻辑、常识和经验,从已知条件出发,逐步得出结论的人类推理不同,AI 推理的过程类似于从已有信息里,分析出合理的结果,甚至能够延伸出新的可能性。比如,你对一个智能助手说:“今天下雨了,我要出门”,它如果只回答“带伞”,这其实还不算推理;但如果它能继续想到“可能要穿防水外套”,“雨天路滑可以考虑公共交通”,这就是在做更接近人类的推理。在 AI 发展的历史中通常把 AI 推理分为两个主要阵营。第一个是“符号推理”(symbolic reasoning)。它的优点是严谨、可解释,可以清楚地知道 AI 是怎么得出结论的。但它的缺点也很明显,现实世界太复杂,很难穷尽所有规则,在面对不确定的、模糊的问题时,它束手无策。第二个是“非符号推理”(non-symbolic reasoning),这主要基于数据进行学习,通过神经网络发现数据中的隐藏模式。它不像符号推理那样有一条条清晰的逻辑链,更像是一种“直觉”。它在海量数据中看到了无数次“下雨”和“带伞”的关联,所以当说“下雨”时,它就能“直觉”地给出“带伞”这个答案。它的优点是擅长处理复杂、开放的问题,但有时也会犯一些低级错误,甚至给出看似合理但实际上是错误的回答,也就是“幻觉”。这两种方法各有优势和短板。而现在最前沿的研究,就是如何把它们结合起来,让 AI 既能有强大的“直觉”,又能进行严密的“逻辑”思考。内容提要:02:36-05:10 什么是 AI 推理?05:27-08:55 推理的本质:AI 与人类思维的差异08:55-10:33 “想得快”和“想得对”之间的取舍10:33-12:43 推理新范式:神经符号推理(Neural Symbolic Reasoning)12:43-17:43 从 自我博弈(self-play) 到自我验证(self-verification)17:43-22:30 当算力与数据的规模定律( scaling law)进入瓶颈,AI 推理如何向“智能体”演化?22:30-23:26 AI 推理如何真正提升生产力?23:26-25:00 为什么数学是“通用智能”的训练场?25:00-26:24 推理不仅是逻辑,更是创造。AI 如何借鉴人类的思维机制?26:24-27:37 当 AI 能真正理解“因果”,智能的边界将被重新定义。互动方式:公众号/ 小红书/ 知乎/ 微博:微软亚洲研究院相关阅读: 文章:从直觉到“深度思考”:多维进化的大模型推理能力 对话张丽:大道至简,rStar-Math让小语言模型具有更强的推理能力 文章:如何泛化AI的深度推理能力? 论文:rStar-Math: Small LLMs can master math reasoning with self-evolved deep thinking 论文:Logic-RL: Unleashing LLM reasoning with rule-based reinforcement learning 论文:Proving Olympiad inequalities by synergizing LLMs and symbolic reasoning 论文:Autoformalizing mathematical statements by symbolic equivalence and semantic consistency 论文:Neuro-symbolic data generation for math reasoning 论文:Chain-of-Reasoning: Towards unified mathematical reasoning in LLMs via a multi-paradigm perspective 论文:CPL: Critical plan step learning boosts LLM generalization in reasoning tasks声明:《AI Next》是微软亚洲研究院推出的一档利用 AI 技术制作的播客,旨在探索合成生成式技术在内容制作和传播中的新形式与可能性。节目中的语音均非真人录制,而是由研究技术原型合成。其中,嘉宾语音由 VibeVoice 技术基于既定文字内容以及嘉宾声音样本合成,宣传视频中的嘉宾人物头像由 VASA 技术基于音频内容以及卡通风格合成和渲染。作为一项探索性播客节目,《AI Next》中涉及的相关技术仍处于研究阶段,生成内容的表现可能受多种输入因素的影响。节目制作及发布遵循人工智能、数据安全与隐私保护相关的法律法规。节目中所使用的语音、文字与图像均获得嘉宾授权,仅用于科研与科普展示。微软亚洲研究院将持续对相关技术进行优化,提升节目的收听体验。随着人工智能技术的快速发展,确保相关技术能被人们信赖是一个亟需解决的问题。微软主动采取了一系列措施来预判和降低人工智能技术所带来的风险。微软致力于依照以人为本的伦理原则推动人工智能的发展,早在2018年就发布了“公平、包容、可靠与安全、透明、隐私与保障、负责”六个负责任的人工智能原则(Responsible AI Principles),随后又发布了负责任的人工智能标准(Responsible AI Standards)将各项原则实施落地,并设置了治理架构确保各团队把各项原则和标准落实到日常工作中。微软也持续与全球的研究人员和学术机构合作,不断推进负责任的人工智能的实践和技术。所有使用或转载本节目的个人与机构,在引用与传播时需明确标注相关内容“由 AI 技术合成”或者不得移除已有的标识,并避免任何可能引发误导或侵犯他人权益的使用方式。若您发现本节目内容或相关技术被非法使用,请通过微软安全响应中心(Microsoft Security Response Center)网站进行举报:🔗 msrc.microsoft.com