
0:000:00
<p style="color:#333333;font-weight:normal;font-size:16px;line-height:30px;font-family:Helvetica,Arial,sans-serif;hyphens:auto;text-align:justify;" data-flag="normal">这又是一期从微信公众号文章由AI转换为双人对谈的播客。在AI大规模落地的时代,"可解释性"成了每一个大型组织不得不面对的议题。AI的可解释性问题,从根本上说,是不确定性和责任界限的问题。今天的大语言模型、深度神经网络,往往由数百亿甚至万亿参数堆叠而成,它的每一个"判断"既无法像传统代码那样逐行追踪,也很难像人那样提供一个有逻辑的因果链。于是,风险也随之而来...</p>