Vol.19 当我们谈论大语言模型的时候我们在谈论什么

Vol.19 当我们谈论大语言模型的时候我们在谈论什么

Published on Feb 15
32:56
代码时光机
0:00
0:00
<p style="color:#1C1D20;font-weight:normal;font-size:16px;line-height:30px;font-family:Helvetica, Arial, sans-serif;hyphens:auto;text-align:justify;" data-flag="normal">用超简单的方式解释大语言模型的本质原理。</p><p style="color:#333333;font-weight:normal;font-size:16px;line-height:30px;font-family:Helvetica, Arial, sans-serif;hyphens:auto;text-align:justify;" data-flag="normal">这期节目可以当作第一期节目的增强补丁,对LLM做了进一步的详细说明,包括如下的基本问题:</p><p style="color:#333333;font-weight:normal;font-size:16px;line-height:30px;font-family:Helvetica, Arial, sans-serif;hyphens:auto;text-align:justify;" data-flag="normal">1. LLM是用什么形式阅读人类语言的?</p><p style="color:#333333;font-weight:normal;font-size:16px;line-height:30px;font-family:Helvetica, Arial, sans-serif;hyphens:auto;text-align:justify;" data-flag="normal">2. 知识以何种形式在LLM中流动?</p><p style="color:#333333;font-weight:normal;font-size:16px;line-height:30px;font-family:Helvetica, Arial, sans-serif;hyphens:auto;text-align:justify;" data-flag="normal">3. Transformer和注意力机制是什么?</p><p style=...