
0:000:00
<p>这是 Hacker News 中对 <strong>ChatGPT 推出的“开发者模式”</strong> 及其对 <strong>模型上下文协议(MCP)</strong> 的讨论。该模式赋予 ChatGPT 与各种工具进行读写操作的能力,从而实现强大的自动化功能。</p><p>然而,这一功能的推出也引发了巨大的 <strong>安全担忧</strong>。许多评论者强调了 <strong>提示注入攻击</strong> 的严重风险,指出大型语言模型(LLM)在区分用户指令和潜在恶意输入数据方面的固有挑战。这种漏洞可能导致 LLM 泄露秘密信息或对系统执行未经授权的操作,形成所谓的“致命三连击”。一些人认为,仅仅依靠“更好的提示”无法解决 LLM 的架构限制和幻觉问题,并且尝试用神经网络检测恶意提示被认为是脆弱且不可持续的“猫鼠游戏”。</p><p>尽管存在这些危险,该模式也带来了显著的 <strong>机遇</strong>,例如在代码开发、自动化测试、数据分析、工作流自动化和漏洞分析等领域的广泛应用。有观点认为,通过沙盒环境和严格的访问控制可以降低风险,但也有人对这些缓解措施的有效性表示怀疑,认为在面对恶意攻击者时,任何非 100% 的保障都可能成为安全漏洞。</p>