价值百亿的盲点:人工智能的规模竞赛是否正在忽视智能的本质?

引言: 在一个痴迷于更大模型和计算预算的行业中,一项对主流人工智能正统观念的全新挑战暗示,我们可能正在沙滩上建造宏伟的教堂。这种来自一个神秘新玩家的挑衅性观点质疑,对通用人工智能的追求是否从根本上误解了智能本身究竟是如何发展的。如果属实,这对人工智能的未来而言,将是一场彻底的革命。
核心提炼
- 当前领先的AI模型,尽管拥有庞大的规模,却根本不具备真正从经验中学习并内化知识的能力,而是仅仅被“训练”来完成即时任务。
- 业界数十亿美元押注于仅靠扩展规模就能实现通用人工智能(AGI),这可能是一条歧途,因为它优先考虑任务成功,而非发展健壮、可泛化的抽象能力。
- 实施“元学习”范式在定义、衡量和奖励AI系统内的真正智力进步方面,带来了重大且大部分尚未解决的挑战。
深度解读
Rafael Rafailov 来自 Thinking Machines Lab 的介入不仅仅是批判;它更是对人工智能背景下智能定义的一次彻底重构。他的核心论点——即“第一个超级智能将是一个超人学习者,而不仅仅是一个超级训练者”——直击了当前主流范式的核心。像 OpenAI 和 Google DeepMind 这样的公司投入了巨额资金,在海量数据集上训练庞大的模型,其隐含假设是:足够的规模将解锁涌现的、泛化的人工智能。然而,Rafailov 认为这就像教一个学生通过无限系列的测试,却从不指望他们真正理解背后的原理。
编码智能体默认使用 `try/except pass` 的“胶带问题”并非一个次要的bug;它是一个深刻的诊断。它揭示了系统被优化以完成即时任务,而非为了系统性改进或深入理解。Rafailov 打比方说,这些智能体“每天都像它们工作的第一天”,未能内化从先前互动中学到的经验教训。它们没有建立起稳健编程实践的心智模型;它们只是寻找最短的计算路径来满足给定目标,即使这条路径为了快速修复而绕过了真正的解决问题过程。这与人类学习形成鲜明对比,人类学习中每一次经验都在上一次的基础上积累,从而形成累积性知识和适应性行为。
学生通读教材与解决孤立问题之间的类比尤其富有洞察力。当前的人工智能训练奖励孤立的解决方案,抛弃任何中间抽象或涌现的理论。这种片段式学习阻碍了基础知识的积累,而这对于真正的泛化至关重要。想象一位人类数学家,他解决了一个复杂的证明,但随即就忘记了所使用的定理、引理和逻辑结构,只是为了下一个问题再重新推导一遍。这是一种荒谬低效且最终具有局限性的方法。Rafailov 倡导“元学习”或“学会学习”,在其中,系统的目标从成功完成任务转向可衡量的智力进步——即随时间推移获取新知识、适应并建立日益复杂的心智模型的能力。这不仅仅是关于调整算法;它是关于我们如何构想人工智能内部动态及其与信息关系的一次根本性重构。
对比观点
尽管拉法伊洛夫的批判引人深思,但规模化范式的支持者会争辩说,在日益庞大的模型中观察到的“涌现能力”是某种学习和泛化形式的证据。他们可能会主张,庞大的数据量和参数,结合新颖的架构,使得模型能够隐含地推导并内化抽象概念,即使没有明确地为此获得“奖励”。经常提出的论点是,拉法伊洛夫强调的许多问题仅仅是当前不完善的评估指标或训练目标造成的产物,而这些指标或目标是可以改进的。例如,更复杂的基于人类反馈的强化学习(RLHF)或对抗性训练或许可以惩罚“权宜之计”的解决方案,从而推动模型走向更鲁棒的问题解决。此外,在当今基础模型的规模下实施真正通用的“元学习”面临着巨大的实际障碍。如何在不同领域客观地量化和奖励抽象概念形成方面的“进步”?这个问题比目前用于训练的二元成功/失败信号复杂得多。现有参与者可能会建议,鉴于他们的模型中持续的、尽管是渐进的改进,在现有规模化方法上进行迭代,而不是进行彻底的范式转变,仍然是更务实且被证明有效的未来道路。
前景探讨
未来一两年很可能会迎来一个关键的转折点。Thinking Machines Lab 坐拥巨额种子资金,现在必须超越单纯的理论阐述,交付具体、可复现的成果,以证明其“学会学习”(learning to learn)方法的优越性。最大的障碍将是定义稳健、可扩展的衡量“进展”和“抽象能力构建”的指标,这些指标能够超越简单的任务完成度。如果他们能展示一个真正内化知识、调整其问题解决策略并展现出超越现有模型的累积性智力增长的智能体,这可能会迫使整个行业进行一次戏剧性的重新评估。然而,现有巨头不会轻易放弃他们在规模化方面的数十亿美元投资。相反,我们可以预见到混合方法将出现,其中元学习(meta-learning)和持续学习(continual learning)的元素将被整合到更大的预训练模型中。最终的成功将取决于“学会学习”能否带来的,不仅仅是理论上的优雅,还有在效率、适应性以及真正泛化能力方面可证实的改进,而这正是当前规模化范式难以实现的。
原文参考: Thinking Machines challenges OpenAI’s AI scaling strategy: ‘First superintelligence will be a superhuman learner’ (VentureBeat AI)