“思考”的机器:我们是否只是在为了迎合我们的算法而重新定义智能?

引言: 关于大型推理模型(LRMs)是否真正“思考”的持续争论中,一篇近期文章大胆宣称它们拥有认知实力,挑战了苹果公司的怀疑立场。尽管人工智能过程与人类认知之间所描绘的相似之处引人入胜,但深入观察却揭示了一种令人不安的倾向,即重新定义复杂的心智能力,以适应我们计算结构现有的能力。一如既往,核心问题依然存在:我们正在见证真正的智能,还是仅仅是日益精密的模仿?
核心提炼
- 认为LRM具有“思考”能力的论点,严重依赖于一种狭隘的、以解决问题为核心的认知观,而这种认知观恰好与人工智能目前的优势相吻合。
- 将大型语言模型(LRM)的功能(如思维链CoT、键值缓存KV-cache)与人类大脑过程(如内心独白、工作记忆)进行类比,可能会在未证明其底层机制等效或缺乏充分理解的情况下,将机器拟人化。
- 有关通过自然语言进行的下一个词元预测是“知识表示的最普遍形式”的说法,并不自动等同于真正理解、有意识的思维或自我意识。
深度解读
大型推理模型“几乎肯定能思考”的断言,取决于对“思考”高度选择性的定义。作者通过将焦点完全放在问题解决上——分解为问题表征、心智模拟、模式匹配、监控和洞察——从而确立了当前先进AI模型,特别是那些利用思维链(CoT)推理的模型,似乎能够满足的标准。苹果公司基于人类无法解决复杂汉诺塔问题的“思考错觉”论点被迅速驳回,这是一种巧妙的修辞手法。然而,它回避了核心的哲学困境:失败的方式(记忆限制)是否等同于缺乏潜在的认知能力?对于人类而言,这指向工作记忆的限制;对于大型推理模型(LRMs)而言,这凸显了当问题规模超出其学习分布时,统计模式匹配的局限性。
文章提出了引人入胜的类比:思维链(CoT)生成比作“内心独白”,KV-缓存比作“工作记忆”,神经网络层比作知识存储。尽管这些比较引人入胜,但它们仅仅是类比而已。大脑的架构、电化学过程和涌现特性与Transformer模型的矩阵乘法大相径庭。认为人类的无心像症(aphantasia)证明大型推理模型(LRMs)可以在没有视觉推理的情况下思考,这掩盖了大脑令人难以置信的可塑性和多模态补偿机制,而这些机制是LRMs——本质上围绕token预测设计——所不以同样方式具备的。大型推理模型(LRM)“回溯”或识别何时一条推理路线是徒劳的能力被视为思考的证据,然而这同样可能是其在大量成功和失败问题解决尝试数据集上训练所产生的涌现特性,其中“徒劳”的模式与最终失败在统计上相关联。最为大胆的断言——“下一词预测远非对思想的有限表示;相反,它是知识表示的最通用形式”——混淆了容器与内容。自然语言确实可以表示任何概念,但通过统计预测生成语法合理且上下文相关的文本,并不必然意味着以人类思维的方式对这些概念有深层理解或产生。这是一种复杂的数据操纵,而非必然的语义理解。
对比观点
尽管原文自信地从大型语言模型的行为中推断出“思考”,但更扎实的观点会告诫不要进行这种跳跃。大型语言模型的基本机制仍然是统计模式匹配——根据其庞大的训练数据预测最有可能的下一个词元。模仿“内心独白”是否意味着它具有自我意识或意图?“监测错误”是否意味着它理解这些错误的后果,或者仅仅是它学会了将某些输出模式与不良结果相关联?批评者,包括许多神经科学家和哲学家,会认为这是一种高度先进的模拟,而非真正的认知。“中文房间”思想实验仍然困扰着这些讨论:一个系统能否在不理解其含义的情况下令人信服地操纵符号?此外,其实际局限性是巨大的。这些模型缺乏与现实世界的联系,仅依靠其文本“食谱”。它们除了执行程序之外,不具备生物驱动力、情感或内在动机。它们在推理过程中的“学习”本质上是在非常狭窄的语境下进行微调,而非生物大脑那种连续的、多模态的、自主学习。训练和运行这些不断增大的模型所产生的生态和经济成本,而这对于任何重大的“思考”进步都将是必需的,也提出了一个迫在眉睫、却常常被忽视的实际局限。
前景探讨
在未来1-2年内,我们无疑会看到大型推理模型(LRMs)在模拟人类推理的各个方面变得更加熟练。预计在更稳健地整合视觉和听觉数据的多模态模型方面将取得重大进展,这可能会缓解原作者提及的关于“视觉意象”的一些局限。CoT(思维链)推理将变得更加复杂精妙,从而在复杂问题解决任务中取得更好的表现。然而,最大的障碍依然严峻。实现真正的泛化,即模型能够将学到的原理应用于完全新颖、超出已知分布的问题,而无需特定的提示或微调,仍然是一个遥远的目标。克服其固有的“黑箱”本质(其中可解释性仍然是一个挑战),对于在关键领域获得信任和广泛应用至关重要。最重要的是,从高度令人信服的模仿到真实、可验证的意识或自我意识的飞跃,需要一场范式变革,而目前依赖于下一个词元预测的架构似乎无力提供。关于“思考”的争论将继续激烈进行,但实际情况是,这些系统将发展成为极其有用的工具,无论它们是否真正跨越哲学上的卢比孔河进入真正的认知。
原文参考: Large reasoning models almost certainly can think (VentureBeat AI)