
0:000:00
<p>这篇论文<strong>深入探讨了大型语言模型(LLMs)的认知模式</strong>,通过<strong>网络框架</strong>将认知技能、LLM架构和数据集联系起来。文章主要研究了<strong>LLMs内部模块如何组织和协作</strong>以支持各种认知功能,例如记忆、执行功能、语言交流和社交认知。通过<strong>剪枝策略和社区检测算法</strong>,研究人员分析了技能在模型模块中的分布,发现LLMs表现出<strong>分布式而非严格局部化的学习动态</strong>,与鸟类和小型哺乳动物大脑的<strong>弱局部化架构</strong>有部分相似性。研究结果表明,虽然LLMs的模块存在与特定技能相关的社区结构,但<strong>针对性地微调这些模块并未带来显著的性能提升</strong>,这强调了LLMs中<strong>知识表示的分布式特性</strong>以及<strong>跨区域交互</strong>在模型认知能力中的重要作用。</p><p>Source: <https://arxiv.org/abs/2508.18192></p>