
0:000:00
<p>有了计算机之后,我们结合到X光拍片中,出现了CT检查(计算机断层扫描)。</p><p>在有了AI之后,如果我们也结合到X光拍片中,将出现的「动态CT」会是怎样的一种存在?</p><p>去年开始,大语言模型使得AI成为全社会的热点,微软研究院负责人彼得·李(Peter Lee)写了本《超越想象的GPT治疗》,畅想了大语言模型在医学领域中的应用。</p><figure><img src="https://image.xyzcdn.net/Ft0WVF4ZSVUBVEmGWqXLpVXA5e08.jpg"/></figure><p>但事实上,这些对AI在医学中应用的设想,都还只是局限于一个非常低级别的辅助位置。比如帮助读片,帮助判断皮肤病,辅助诊断,或者蛋白设计、药物筛选等等。</p><p>即使大语言模型通过了美国执业医师考试,这其实也是把AI放在一个完全低级的辅助位置,而远没有开发人工智能的更大价值。</p><p>本期嘉宾是来自浙江大学计算机科学与技术学院的吴鸿智教授,他提出了一种全新的设想——</p><p>人类的感知能力其实非常有限,如果从获取物理世界信息开始,都是以适应于AI的方式进行的,由AI决定获取哪些信息,如何获取信息,然后进行人工智能分析。而这些适应AI的信息,可能我们人类压根儿看不到也感知不到。那么,我们是不是可以有更具想象力的成果。</p><p>比如,以更小的辐射剂量,获得更加清晰和诊断效果的「动态CT」检查。</p><p>当然,本期的讨论还仅限于科学技术层面,而对于相应的伦理问题,我们确实没有答案。不过我们相信,儿孙自有儿孙福,相信未来应该可以发展出适应人工智能生产力的新型伦理模式。</p><h2>本期内容</h2><p>* 现在的CT检查是如何工作的,为什么拍CT需要屏气?</p><p>* 目前的动态CT检查是怎样的?有哪些缺陷?</p><p>* 如何以适应于AI的方式获取物理世界的信息?</p><p>* 将硬件与软件整合在一起的AI工具是如何工作的?</p><p>* 为什么使用AI可以降低辐射剂量?</p><p>* 自然科学或者医学级别的AI,和GPT所代表的大语言模型区别在哪?</p><p>* 如果获取信息分析信息的工作都交给AI,那人类的价值在哪里?</p><p>* 如果把AI类比于抽血化验,医生的工作将有怎样的转变?</p><h2>人员...