建筑师的困境:萨姆·奥特曼与他自己创造的回响

建筑师的困境:萨姆·奥特曼与他自己创造的回响

萨姆·阿尔特曼看着一个复杂的数字造物,象征着他与人工智能的困境。

引言: 萨姆·奥特曼,OpenAI的首席执行官,最近感叹充斥社交媒体的“虚假性”,并将其归因于机器人和模仿人工智能语言的人类。尽管他对日益增长的数字真实性危机的观察无疑是正确的,但他顿悟的来源——以及他自己的公司在创造这种局面中所扮演的核心角色——却呈现出一种深刻而令人不安的讽刺,值得我们更深入地审视。

核心提炼

  • 奥特曼公开承认社交媒体的“虚假性”,这番话极具讽刺意味,因为他所领导的公司,正是将那些能够生成几可乱真的人类内容的AI模型普及开来的。
  • 先进大语言模型的广泛应用,加速了深刻的数字真实性危机,在所有在线平台上模糊了人机沟通的界限,并侵蚀了基本信任。
  • 创建一个真实的数字空间的挑战,如今变得指数级地更加困难,因为旨在模仿人类的技术已经变得如此普遍,以至于连其创造者都难以辨别现实与精密的伪造。

深度解读

萨姆·阿尔特曼最近在X上发表的“顿悟”,质疑Reddit上赞扬OpenAI Codex帖子的真实性,与其说是一种突然的顿悟,不如说更像是他自己公司助长的一场危机,经过精心策划的公开承认。他哀叹道:“AI推特/AI Reddit感觉非常虚假,这与一两年前完全不同。”这却忽略了一个关键细节:一两年前,由OpenAI引领的生成式AI革命对公众来说仍处于萌芽阶段。如今,随着大型语言模型(LLMs)能够生成有说服力、细致入微且具有语境意识的文本,数字世界已成为复杂模仿行为的温床。

讽刺意味十分明显。OpenAI的核心使命之一,部分在于构建能够理解和生成人类语言的人工智能,甚至精细到“破折号”。众所周知,这些模型是利用海量的互联网数据进行训练的,其中包括Reddit(阿尔特曼本人曾担任该公司的董事)。现在抱怨“极度活跃的网民”正在沾染“大型语言模型(LLM)的说话习气”,这无异于一位厨师抱怨食客开始尝出他自己混合的食材的味道。旨在模仿人类的工具已经变得如此有效,以至于我们自己的在线交流模式正在被它们潜移默化地、也许是无意识地影响着。

阿尔特曼列举了诸多因素:人类模仿、炒作周期、参与度优化、竞争对手的“伪造民意”,以及,最后,“可能还有一些机器人”。尽管这些因素确实造成了这种喧嚣,但他的这种说法却感觉像是一种微妙的转移视线。社交媒体上的“机器人问题”并非新鲜事,但其性质已发生根本性转变。我们已经从最初的粗糙垃圾邮件脚本发展到高度复杂、具备语境意识的AI代理,它们能够进行看似真实的对话、撰写有说服力的评论,甚至能生成整个子版块(subreddit)的虚假赞扬或异议。Imperva报告称,2024年超过一半的互联网流量并非来自人类,这主要归因于大型语言模型(LLMs),这凸显了这场新型数字洪水的规模。这不再仅仅是竞争公司“伪造民意”的问题;这是一场根本性的危机,在这场危机中,从噪音中辨别任何真实信号变得越来越不可能。平台本身受参与度激励,往往对此视而不见,或缺乏技术能力真正过滤这些复杂内容,导致用户沉浸在算法模仿的海洋中。

对比观点

尽管奥特曼言论中的讽刺意味显而易见,但一个更善意的角度可能会认为,他的公开表态,无论其表面上多么利己,都是解决一个关键问题的必要一步。作为人工智能领域的领导者,他的承认引起了人们对日益严峻的数字真实性危机的急切关注,迫使业界和公众直面先进大型语言模型(LLMs)的复杂影响。有人可能会争辩说,这个问题远超OpenAI的范畴;平台激励、人类心理以及海量的在线内容都为此推波助澜。也许奥特曼是真诚地表达了对一个更真实互联网的渴望,认识到他所倡导的工具需要防护措施,或至少一个更明确的出处系统。他过去与Reddit的关系甚至可能为问题的运作机制提供独特的见解,而不仅仅是让他成为同谋。从这个角度看,他的“顿悟”不应被解读为虚伪,而是一个深度参与技术演进者发出的行动号召。

前景探讨

对数字真实性未来1-2年的现实展望,充其量也只是前景黯淡。我们可以预见到,所有在线平台上的信任将加速瓦解。人工智能内容生成与检测之间的现有军备竞赛将持续下去,前者很可能会一直保持领先。复杂的由大型语言模型(LLM)驱动的“僵尸网络农场”将变得更加普遍,它们能够塑造可信的虚拟身份,编造叙事,并以前所未有的规模和精微程度操纵公共舆论。“人类信号”将成为一种宝贵但日益稀缺的商品。

需要克服的最大障碍是多方面的。从技术角度来看,开发能够实时、大规模、且没有过多误报地可靠区分人类生成内容和高度先进的AI生成内容的AI模型,仍然是一项艰巨的挑战。从经济角度来看,社交媒体平台的激励机制优先考虑参与度指标而非内容真实性,这积极地助长了这一问题。从伦理角度来看,关于内容来源以及匿名(或假名)在线表达权利的争论将会加剧。如果OpenAI或任何公司试图推出一个“无机器人”的社交网络,它将面临一场与他们亲手释放的生成式AI力量对抗的艰巨战斗,需要严苛的身份验证或新颖、未经证实的认证方法。我们所知的互联网,正在演变成一个日益模糊的空间,在这个空间里,批判性辨别力将不再是一种技能,而是一场日常的生存之战。


原文参考: Sam Altman says that bots are making social media feel ‘fake’ (TechCrunch AI)

Read English Version (阅读英文版)

Comments are closed.