百万令牌的海市蜃楼:马尔可夫式思维是真正的突破,还是仅仅是大型语言模型(LLM)的巧妙权宜之计?

百万令牌的海市蜃楼:马尔可夫式思维是真正的突破,还是仅仅是大型语言模型(LLM)的巧妙权宜之计?

概念图描绘了LLM的token处理过程,强调了顺序马尔可夫模式。

引言: 能够进行“多周”推理并实现“科学发现”的人工智能系统的前景,听起来像是人工智能的“圣杯”。Mila 的“马尔可夫式思维”(Markovian Thinking)技术及其 Delethink 环境,声称通过规避长链推理中令人望而却步的二次方成本来解锁这一能力。但正如经验丰富的科技炒作观察者所知,激进的主张往往需要彻底的审视。

核心提炼

  • 线性成本伸缩:马尔可夫式思维显著地将长AI推理链的二次计算成本转变为线性成本,从而大幅降低了训练和推理的资源需求。
  • 民主化的长周期人工智能:此项成本降低有望普及先进的多步推理能力,从而超越目前高昂计算预算所带来的局限。
  • “延续信息”困境:对模型通过固定大小的“延续信息”摘要来“学习记住什么”的依赖,引入了一个关键的单点故障,并可能导致在真正冗长的推理链上出现微妙的、累积的信息丢失。

深度解读

复杂人工智能推理,尤其是在大型语言模型中,其阿喀琉斯之踵一直是“二次代价诅咒”。当大型语言模型(LLM)构建出复杂的思维链(CoT)时,其内部上下文窗口会随之增长,处理每个新token的计算成本也随之呈二次方爆炸式增长。这不仅仅是不便;它是一个根本性的障碍,使得训练模型来执行真正漫长而复杂的任务成本高昂得令人望而却步,并且在技术上往往不可行。应对此问题的尝试主要集中在限制推理长度或采用巧妙但仍不完善的上下文管理技巧。

Mila通过Delethink实现的马尔可夫式思维提出了一种引人入胜的全新方法。它没有试图在二次方问题内部进行优化,而是旨在完全规避它。其核心思想是将推理分块进行:将一个庞大的问题分解成一系列固定大小、易于处理的块。模型处理每个块,当达到限制时,它被迫生成一个简洁的“结转信息”——一份总结或关键状态表示——然后将其输入到下一个块中。这里的巧妙之处在于,Transformer的工作上下文窗口保持不变,有效地将二次曲线展平为线性曲线。

这对企业的影响是巨大的。降低的训练成本(在相似推理长度下估计可节省三分之二以上)以及推理方面的类似节省,直接解决了常常阻碍雄心勃勃的人工智能项目的底线问题。一个能够“调试大型代码库并长时间思考”而不会使其运营者破产的智能体,是一个极具吸引力的提议。此外,Delethink训练模型所展示的将推理性能扩展到超出其训练预算范围的能力(例如,在经过24,000 token训练后能处理140,000 token),表明其具有真正可扩展的架构。这与现有方法大相径庭,现有方法往往在达到上下文限制后性能急剧停滞。即使是现成的模型也表现出一些潜在的马尔可夫能力,这一发现尤其意义重大,意味着早期采用者的进入门槛可能更低。

对比观点

尽管马尔可夫式思维在成本效益方面的优势不可否认,但其声称能解锁“百万token的AI推理”和“科学发现”的说法,值得我们抱持一些怀疑。这种方法的关键在于其“承载”机制——即模型“学习记住什么”的能力。这是一种复杂的摘要形式,而摘要的本质就是丢弃信息。在真正扩展的推理链中,特别是在科学探究或深度嵌套的代码调试等复杂、非结构化领域,累积摘要错误或无意中丢弃一个关键但看似微小的细节,成为一个重大隐患。模型可能确实能有效地学会传递某些状态,但它能否保证传递在广阔的范围内保持完美保真度所需的最佳或完整状态呢?人类推理并非通过固定大小的、摘要化的块进行;我们根据需要动态地回忆和重新评估过去的上下文。依赖大型语言模型在可能数千次迭代中完美地提炼出“任务关键状态”,会引入根本性的脆弱性。这并非在解决上下文问题;它只是将负担推给了模型的摘要能力,而这种能力本身也存在局限性和故障模式。

前景探讨

在未来1-2年内,马尔可夫思维(Markovian Thinking),或类似的基于块的推理范式,可能会在特定、定义明确的长期任务中得到广泛应用。诸如高级代码生成、多步规划和复杂数据分析等领域,在子任务相对清晰且信息损失可控的情况下,将从计算成本的降低中受益匪浅。届时,AI代理在解决企业级问题时的能力将得到增强,从单次响应转向持续的问题解决。

然而,“数周推理”和“科学发现”的说法在一段时间内仍有待实现。最大的障碍在于证明“承载”机制在真正新颖和开放性问题上的稳健性和忠实度,在这些问题中,“关键状态”的定义不易从现有数据集中学习。我们需要看到对信息在极长序列(例如,数百万个token)中保留情况的严格评估,以及在各种不同问题类型中的表现,以确定这是否是长期记忆的真正突破,抑或仅仅是对当前上下文窗口限制的一种非常巧妙且高效的变通方案。挑战在于确保效率不会以牺牲准确性或真正发现所需的细微但关键的细节为代价。


原文参考: New ‘Markovian Thinking’ technique unlocks a path to million-token AI reasoning (VentureBeat AI)

Read English Version (阅读英文版)

Comments are closed.