OpenAI 的“人类优先”使命:一场有利可图的幻觉?

引言: OpenAI最新推出的Sora应用,标志着其在消费者社交媒体领域迈出了重要一步,立即引发了内部异议和外部质疑。尽管首席执行官萨姆·奥特曼将其定位为一项为更宏大AI研究筹集资金的必要举措,但此举也引发了人们对该公司是否恪守其宣称的非营利章程以及其使命纯粹性的严重质疑。
核心提炼
- Sora的推出突显了OpenAI所宣称的“AI造福人类”使命与其积极追求利润丰厚、以用户参与度为驱动的消费平台之间日益加剧的深刻分歧。
- OpenAI关于“消费应用资助AGI研究”的论点,日益成为其向以易上瘾特性和对社会危害著称的市场扩张的便捷借口。
- 尽管声称避免社交媒体弊病,Sora的初期设计选择,如“动态表情符号”,却暗示其明确旨在优化多巴胺刺激和用户留存,这与OpenAI公开批评的机制如出一辙。
深度解读
Sora——一种类似于TikTok的AI生成视频流的推出,不仅仅是一款新产品;它是一个关键的转折点,揭示了OpenAI崇高言辞与其商业野心之间日益扩大的鸿沟。Sam Altman对内部担忧的轻描淡写,将Sora描述为“很高兴向人们展示酷炫的新技术/产品……让他们开心地笑,并希望能赚到一些钱”,在人工智能社区深入的伦理讨论以及一家理应致力于非营利使命的公司背景下显得苍白无力。这种“为实现AGI(通用人工智能)而募集资金”的论调被没完没了地重复,与其说是一个战略要务,不如说是一个方便的幌子。
当OpenAI坚称Sora“为乐趣而非实用性优化”时,这预示着一个令人不安的转向。在短视频流的语境中,“乐趣”总是转化为“令人上瘾的参与度”。公司声称高度关注“末日刷屏”和成瘾问题,但其设计元素,如动态表情符号,却直接与其说法相悖——这些是教科书式的心理触发器,用于刺激多巴胺释放和持续互动。这并非偶然的疏忽;而是基于数十年社交媒体心理学知识的蓄意设计选择。
此外,Altman将Sora与ChatGPT进行比较,声称后者曾是实用性被误解的早期例子,但这完全偏离了重点。ChatGPT的实用性,尽管尚处于萌芽阶段,却与生产力和信息检索直接相关。相比之下,Sora明确追求与TikTok和Instagram Reels等平台饱受困扰的相同参与度指标。前OpenAI研究员对“无限AI版TikTok垃圾机器”的哀叹,完美地概括了核心矛盾:OpenAI究竟是在构建促进人类进步的工具,还是仅仅是更强大的数字垃圾食品(尽管是由复杂AI生成)?监管机构已经在审视OpenAI的营利性转型,而此举为那些将“使命”仅仅视为吸引人才和推卸道德责任的品牌宣传活动的人提供了充足的弹药。该公司似乎正沿着科技巨头的老路,一边声称对“意想不到的后果”不知情,一边却从一开始就部署了已知的成瘾机制。
对比观点
尽管质疑可以理解,但有人可能会说,OpenAI 在 Sora 上的做法是一种经过深思熟虑的必要之举。为了人类构建先进通用智能(AGI),需要巨额资金和计算能力。像 Sora 这样的消费产品,即使表面上是以娱乐为导向的,也能产生必要的收入流,以资助那些否则可能无法获得投资的前沿研究。此外,广泛分发人工智能技术,即使以一种“有趣”的形式,也可以被视为通过普及访问并让广大用户熟悉 AI 的能力,从而完成了使命的一部分。OpenAI 还声称正在实施防沉迷措施,例如滚动提醒,并优化为以创作而非被动消费为主。也许他们真心相信,他们可以利用从早期社交媒体失败中吸取的教训,迭代出一种能避免弊端的“积极体验”。这是一场冒险的赌注,但如果它最终能推动有益的 AGI 的创造,那它就是合理的。
前景探讨
Sora 在未来一到两年内的现实前景是快速增长和日益严格的审查。尽管目前规模尚小,但在 AI 生成内容的吸引力以及 OpenAI 的市场实力驱动下,该应用可能会大幅扩展。员工内部的“挣扎”将会持续,可能导致更多高层离职或内部派系僵化。监管机构,尤其是那些关注 OpenAI 非营利使命的完整性以及 AI 伦理影响的机构,无疑会加强他们的关注。OpenAI 最大的挑战在于,在同时优化一个令人上瘾的社交媒体信息流的同时,如何维持其“AGI 造福人类”这一使命的任何可信度。如果 Sora 进一步倾向于最大化用户参与度的功能(考虑到市场压力,这似乎几乎不可避免),那么人们对 OpenAI 的看法,即它只是另一个逐利的科技巨头而非一个仁慈的研究实验室,将会固化。
原文参考: OpenAI staff grapples with the company’s social media push (TechCrunch AI)