
0:000:00
<p>这篇报告介绍了 <strong>GLM-4.5系列</strong> 模型,包括GLM-4.5和GLM-4.5-Air,它们是清华大学和智谱AI合作开发的<strong>开源混合专家(MoE)大型语言模型</strong>。这些模型旨在通过结合思维和直接响应模式的<strong>混合推理方法</strong>,在<strong>代理能力、推理能力和编程能力(ARC)</strong> 任务中实现卓越性能。论文详细阐述了模型的<strong>架构、多阶段训练过程</strong>(包括预训练、中期训练和后训练),以及如何通过<strong>强化学习和专家模型迭代</strong>来提升各项能力。评估结果显示,GLM-4.5在多项ARC基准测试中表现出色,并在总参数量远低于竞争对手的情况下,整体排名第三,代理能力排名第二,凸显了其<strong>参数效率高</strong>的特点。</p><p>Source: <https://arxiv.org/abs/2508.06471></p>