生成式人工智能的致命缺陷:令人惊叹的假象,智力空无?

生成式人工智能的致命缺陷:令人惊叹的假象,智力空无?

数字艺术,代表着生成式AI的精妙机巧及其固有的智力空虚。

引言: 尽管大型语言模型展现出令人惊叹的生成能力,但在其深层仍存在一个根本性局限:它们缺乏对世界的真正理解。这不仅仅是学术上的吹毛求疵;而是一个设计选择,对它们在关键应用中的可靠性、可信度和最终实用性具有深远影响。

核心提炼

  • 当前生成式人工智能模型无法建立和维护明确的、动态的“世界模型”,这是其核心架构缺陷,限制了它们进行真正理解和稳健推理的能力。
  • 这标志着与几十年来既定的人工智能和软件工程原则的巨大背离,这些原则曾以显式知识表示和可操作数据结构为核心。
  • 这种设计选择所导致的“黑箱”本质,使得大型语言模型(LLMs)在需要事实准确性、动态情境感知或复杂多步推理的任务中,本质上难以调试、审计和被信赖。

深度解读

最新一波的生成式人工智能无疑令人眼花缭乱,它能以惊人的流畅度生成文章、代码和图像。然而,正如原文敏锐指出的那样,这种熟练能力往往掩盖了一个深层的智力空白:即“世界模型”的缺失。这并非某种深奥的哲学概念;它是一个系统用来跟踪、更新和解释其操作环境中正在发生之事的基本计算框架。本质上,它是一种动态的、内在的现实地图。

经典人工智能,从图灵早期的国际象棋程序到赫伯特·西蒙的通用问题求解器,本质上都理解这一点。它们的架构师们精心设计了显式的数据结构和算法,以表示实体、它们的属性及其相互关系。以视频游戏为例:它拥有一个强大的场景图,能跟踪每个角色的位置、物品清单和状态。数据库能精确地知道“汤普森先生”的地址存储在哪里以及如何更新它。这种透明、可修改和动态的知识表示过去是、现在仍然是构建可靠、可审计软件的核心。正如尼克劳斯·沃斯(Niklaus Wirth)那句名言所说:“算法 + 数据结构 = 程序”。世界模型正是那些必不可少的数据结构。

大语言模型(LLM)从设计之初就规避了这种费力的知识工程。它们是庞大的统计引擎,从海量数据集中提取关联性,寄希望于“智能”和理解能以某种方式奇迹般地从纯粹的规模中涌现出来。问题在于,统计相关性并非理解本身。当大语言模型“知道”某事时,它并不会像“汤普森先生的当前位置”那样,将其存储在一个可访问、可更新的变量中。相反,这种“知识”分散且隐含在一个不透明的神经网络的数十亿个权重中。你无法指向它、检查它或直接修改它。这就是为什么大语言模型会产生“幻觉”——它们并非从现实模型中检索事实,而是生成一串统计上貌似合理、听起来像事实的词语序列,但往往没有事实依据。它们无法跟踪动态状态,例如国际象棋视频中兵非法横向移动的例子,直接源于这种架构上的空白。它们可以模仿国际象棋的形式,但它们没有关于棋盘状态或规则的持久、可更新模型。这种“涌现式”方法使它们取得了显著的表面结果,但当需要强大、可靠的理解时,它就会遇到硬性瓶颈。

对比观点

当前大型语言模型(LLM)范式的支持者经常争辩说,现代模型的巨大规模使其在其庞大的神经网络架构中隐式地学习了这些“世界模型”,即使它们没有被明确表示或可访问。他们可能声称,持续的规模扩展,结合精细的微调和提示工程,最终将克服这些所谓的局限性,使得“默会理解”足以满足大多数应用的需求。此外,LLM在内容生成、摘要和翻译等任务上的巨大效用——在这些任务中,深度、明确的理解并非严格必需——掩盖了它们的基础性缺陷。他们争辩道,当涌现的统计模式可以更快、以更低的初始开发成本带来令人印象深刻的结果时,何必费心于“脆弱”且缓慢的知识工程过程呢?

前景探讨

未来一到两年内,我们可能会看到生成式AI的持续完善,其表现为流畅性提高、幻觉(或称“一本正经地胡说八道”)减少(但不会消除)以及更高效的训练方法。然而,构建鲁棒、显式且可动态更新的“世界模型”这一根本挑战,仍将是最大的障碍。如果没有重大的架构变革——例如将符号AI或知识图谱与神经网络相结合的混合方法——大语言模型将难以超越复杂的模式匹配。它们的作用将继续主要停留在辅助性角色,用于增强人类的创造力和效率,而非自主执行那些需要无可挑剔的准确性、动态情境感知或复杂多步逻辑推理的关键任务。如果业界不降低对“真正智能”的期望,转而关注这些强大但本质上受限的统计引擎的实际能力,那么普遍幻灭的风险就会日益增长。


原文参考: Generative AI’s failure to induce robust models of the world (Hacker News (AI Search))

Read English Version (阅读英文版)

Comments are closed.