「AI智能体」的妄想:我们是否只是在将复杂的脚本重新包装成有知觉的助手?

「AI智能体」的妄想:我们是否只是在将复杂的脚本重新包装成有知觉的助手?

AI代理的外壳消融,显露出底层复杂编程脚本的插图。

引言: 科技行业总是热切追逐下一个风口,已将“AI智能体”视为生成式AI的逻辑演进。然而,正如精辟指出的那样,这个宽泛的术语已变成一个模糊不清的笼统概念,模糊了关键的区别,最终阻碍了安全有效的部署。我们面临的不仅仅是语义上的细枝末节;这种定义上的模糊性恐将重蹈覆辙,掩盖了对我们实际正在构建什么,以及更重要的是我们真正可以信任什么的关键理解的缺失。

核心提炼

  • 当前“AI智能体”定义的模糊性,给AI的稳健治理、风险评估以及透明的开发实践带来了巨大阻碍。
  • 依赖历史自治框架,虽然有其价值,但可能无法充分考虑到非确定性、由大型语言模型(LLM)驱动的系统所带来的独特挑战,尤其是在可解释性和不可预测的涌现行为方面。
  • 将复杂的脚本草率地贴上“智能体”的标签,其风险在于过度承诺其能力,并低估所需的人工监督,这可能导致不可预见的责任,并破坏企业应用中的信任。

深度解读

原文正确地指出,“AI代理”这个术语被随意使用,漠视了其精确性。尽管所提出的四组件定义(感知、推理、行动、目标)提供了一个有用的理论基线,但它却忽略了将当今的“代理”与其历史同行区分开来的根本挑战:即“推理引擎”本身的性质。恒温器的逻辑是确定性的、完全可审计的、可预测的。即使是L4级自动驾驶汽车,也运行在一个精心设计、基于规则的框架内,其故障模式在理论上已被编目和处理。然而,现代AI代理越来越多地由大型语言模型驱动,这些模型本质上是统计性的、概率性的,并且常常不透明。

这不仅仅是复杂程度的差异,更是本质上的不同。当一个由LLM驱动的代理“推理”或“规划”时,它并非像旧时的专家系统那样遵循明确的、预先编程的指令。它根据从海量数据集中学习到的模式生成输出,这常常导致难以解释或预测的涌现行为。这种黑箱特性是显而易见却被忽视的难题,传统的、借自高度工程化物理系统的自主性框架难以解决。当其“推理”可能涉及事实幻觉或优先处理无关细节时,如何为一个在“开放互联网混乱、不可预测的环境”中搜索的代理定义操作设计域(ODD)?

这种定义模糊带来的现实影响是巨大的。如果没有清晰、标准化的定义来解释LLM特有的特性——例如生成计划的置信度、选择的可解释性以及在关键行动前进行人工干预的强大机制——组织将无法有效评估风险、确保合规性,甚至无法为这些系统购买保险。我们面临着构建强大工具的风险,这些工具运行在概念上的无人区,其自主性的承诺超越了我们控制或理解它们的能力。人机协作的“半人马”模式确实可能实现,但对于LLM驱动的代理而言,这种协作需要全新的信任和监督范式,而不仅仅是照搬航空领域的层级划分。

对比观点

当前“AI智能体”论述的支持者可能会争辩说,经典的定义和现有的自主性框架,尤其是更细粒度的航空模型,确实是完全足够的。他们会认为,通过将智能体分解为其感知输入、推理核心和行动,我们就能获得足够的清晰度。他们可能会说,大语言模型(LLMs)的非确定性仅仅是现有框架内需要管理的另一层复杂性——类似于在机器人技术中考虑可变环境条件。他们可以指出当前“副驾驶”应用的成功,作为这些模型有效的证据,暗示只需应用现有水平的人工监督和控制,也许辅以更严格的防护措施,就已足够。此外,他们可能会争辩说,过早地过分强调定义上的僵化会扼杀创新,并且随着技术成熟,需要一个更具机动性、迭代性的过程来定义和完善“能动性”。

前景探讨

在未来一两年内,“AI智能体”领域很可能仍将是由各种专有定义和不同程度的真正自主性拼凑而成的局面。我们将看到“副驾驶”解决方案持续增多,它们利用大型语言模型(LLM)进行协助、建议和起草,但很少在没有明确人类批准的情况下执行关键行动。最大的障碍将不再是原始计算能力,而更多地在于建立强大的治理框架、规范考虑到LLM非确定性的评估指标,以及为监管和责任目的证明其可解释性。行业将努力解决真正自主性的“最后一公里”问题:安全处理边缘情况、优雅地从不可预测的错误中恢复,并为黑箱推理引擎所做的决策提供可审计的追踪记录。在这些挑战得到解决之前,高风险环境中完全自主的“智能体”将更多地停留在科幻愿景层面,而非董事会现实。


原文参考: We keep talking about AI agents, but do we ever know what they are? (VentureBeat AI)

Read English Version (阅读英文版)

Comments are closed.