
0:000:00
<p>这项研究<strong>探讨了大型语言模型(LLMs)如何处理概念</strong>,并将其与人类的认知方式进行<strong>比较</strong>。研究人员运用了一种<strong>信息论框架</strong>,借鉴了率失真理论和信息瓶颈原理,以<strong>量化LLMs在信息压缩和语义保真度之间如何权衡</strong>。通过分析LLMs的词元嵌入并参照<strong>人类分类基准数据</strong>,研究发现LLMs能够形成与人类判断相符的<strong>宽泛概念类别</strong>,但在捕捉人类理解所必需的<strong>细粒度语义差异</strong>方面存在不足。关键在于,LLMs倾向于<strong>激进的统计压缩</strong>,而人类的概念系统则优先考虑<strong>适应性细微差别和语境丰富性</strong>,即便这会降低统计压缩效率。这些发现突显了当前人工智能与人类认知架构之间的<strong>根本差异</strong>,并为开发出<strong>更符合人类思维的LLMs</strong>指明了方向。</p><p>Source: <https://arxiv.org/abs/2505.17117></p>