谷歌的AI概览:当“有用”变成有害的幻觉

引言: 一个令人震惊的头条新闻——“谷歌AI概览为我编造了一个精心设计的故事”——最近浮出水面,暗示着这家搜索巨头雄心勃勃进军生成式人工智能的举动,正面临日益加深的信任危机。尽管在数字环境中,核实此类说法是一场充满JavaScript的漫长考验,但其深层含义显而易见:谷歌备受吹捧的AI概览不仅仅是偶尔会出岔子;它们正在从根本上侵蚀大规模可靠信息的理念,而这正是谷歌帝国的基石。
核心提炼
- AI的信任危机:Google的AI概览反复出现“编造故事”的问题,这揭示了一个超越简单“幻觉”的更深层、系统性的可靠性问题,正在削弱用户信心。
- 谷歌权威的侵蚀 几十年来,谷歌一直是互联网的信息裁决者。这些公开的失误威胁着其品牌完整性及其作为通往知识的可信赖门户的长期地位。
- 仓促部署的代价:谷歌将其未经证实的生成式AI仓促部署到其核心搜索产品中,此举凸显了业界一个危险趋势,即在关键应用中,将上市速度置于彻底的质量保证之上。
深度解读
谷歌AI概览捏造“精心编造的故事”的报道事件绝非孤立的故障;它是困扰大型语言模型(LLMs)快速整合到主流信息服务中的一个关键、持续挑战的有力象征。这不仅仅是关于AI建议在披萨上涂胶水或食用岩石,尽管这些公开的尴尬确实为此埋下了伏笔。这关乎一个表面上旨在总结和呈现事实信息的LLM,却主动构建出完全不真实的叙述,可能涉及个人或敏感话题。
核心问题在于这些生成式AI模型的根本性质。它们是根据庞大数据集预测下一个最合理词元(词语或短语),而非判断真相。当整合到像谷歌AI概览这样的检索增强生成(RAG)系统中时,AI试图将其回答基于检索到的网页内容。然而,当源材料模糊、矛盾或不足时,AI并不会简单地表示“我不知道”或呈现相互冲突的观点;它通常会虚构,用听起来合理但完全捏造的信息填补空白。这个问题因AI自信、权威的语气而加剧,这种语气掩盖了其往往是推测性的来源。
这代表了与传统搜索的深刻转变。历史上,谷歌的自然搜索结果提供了一系列链接,使用户能够评估来源并得出自己的结论。相比之下,AI概览旨在提供一个确定的答案,将AI提升为一个权威的声音。当这个声音明显错误时,谷歌与其用户之间隐含的信任契约便会破裂。它将谷歌从一个指引你到书架的图书馆员,变成一个自信地向你讲述虚构故事的图书馆员。
现实世界的影响超出了单纯的不便。捏造的信息可能从滑稽可笑到真正有害,影响声誉、决策甚至公共安全。这种快速部署,或许是受到微软Copilot或更广泛的AI竞争压力的驱动,揭示了一种令人不安的意愿,即向数十亿人推出可能不可靠的技术,将他们视为高风险环境中的活体测试者。
对比观点
谷歌AI概览的公开失误固然不可否认,但承认谷歌所尝试的任务的巨大复杂性至关重要。支持者乃至谷歌自己都会辩称,对于如此规模的生成式AI而言,目前仍处于“早期阶段”。他们可能会认为,绝大多数AI概览都确实有帮助且准确,而那些广为流传的错误只占查询总量的一小部分。他们将这些事件视为尖端技术迭代开发过程中必要的学习机会。从这个角度看,对于一个旨在总结全人类知识的系统而言,完美是一个不切实际的期望。此外,一些人认为,用户应该天生对所有AI生成的内容抱持怀疑态度,就像对待互联网上的任何信息一样,将批判性评估的责任重新放回到个人身上,而非仅仅依赖AI的万无一失。
前景探讨
在未来一到两年内,预计谷歌将大幅缩减AI概览的突出程度和应用范围。他们很可能会实施更严格的安全防护措施,增加免责声明,并可能限制AI在容易出现“幻觉”的领域的能力。“搜索中的生成式AI”这一概念不会消失,但其整合方式将变得更加谨慎,也许会转向一种模式,即AI作为经过验证信息的复杂过滤器或综合工具,而非叙事生成器。最大的障碍将是重建公众信任,改进RAG架构以最大程度地减少虚构,并在AI内部开发强大、可扩展的事实核查机制。这一时期也可能促使专业化、领域特定的AI模型兴起,这些模型承诺在更狭窄领域内提供更高准确性,因为通用型、无所不知的AI被证明在关键应用中过于容易出错。
原文参考: Google AI Overview made up an elaborate story about me (Hacker News (AI Search))