通用人工智能的海市蜃楼:为什么硅谷的宏伟愿景只是烟幕弹

引言: 硅谷再次沉迷于一个虚幻的未来,这一次是通用人工智能(AGI)的承诺。然而,在指数级进步和拯救世界的算法的华丽外衣之下,AI Now 研究所揭示了一个令人清醒的现实:这场竞赛并非关乎人类的救赎,而是关于前所未有的权力集中,伴随着真实而即时的代价。
核心提炼
- 对AGI的不懈追求,常常得到政府支持的加持,掩盖了其内在不稳定的商业模式,并主要导致了权力在少数几家AI巨头手中的危险集中。
- 当前实际造成的危害——从环境退化、算法偏见到数据隐私侵蚀——绝非不可预见的副作用,而是这种不受约束的规模扩张狂潮中蓄意选择的直接后果。
- 通用人工智能(AGI)的愿景炒作与当今人工智能系统有限且常有问题的功能之间存在巨大脱节,这预示着一个潜在的泡沫,其中巨额投资正追逐着一个定义模糊且或许无法实现的目标,却同时忽视了切实的社会代价。
深度解读
AI Now 研究所的《人工权力》报告揭示了我们许多资深观察家长期以来的怀疑:追逐通用人工智能(AGI)并非一项良性的科学事业,而是一场旨在争夺经济和政治主导权的极具战略意义的博弈,这与困扰金融业的“大而不倒”叙事如出一辙。我们正在目睹一个令人不寒而栗的熟悉模式:少数资金雄厚的实体正投入数十亿美元用于大规模计算基础设施和基础模型,本质上是在构建专有的数字王国。其“原因”很简单:控制。控制底层基础设施、数据流,以及最终控制他们所谓的“智能”的未来应用。这不仅仅是关于创建智能软件;它是关于在数字经济中建立“咽喉要道”,就像早期的科技巨头垄断了搜索、社交媒体和电子商务一样。
其“方式”涉及无限制的风险投资、监管真空,以及关键的、大量的政府鼓励乃至直接支持的危险结合。这形成了一个反馈循环:炒作吸引投资,投资推动规模,规模巩固市场地位,而巩固的市场地位则要求政府保护,通常打着国家安全或技术领先的幌子。AI Now 指出,支撑这些的商业模式往往“摇摇欲坠”。如何在不成为一个不可避免、几乎无法逃脱的公用事业的情况下,将真正的通用智能商业化?答案似乎是控制其方方面面,授权其组件,并规定其用途。这不是创新;这是正在形成的数字封建主义。
现实世界的影响已经显而易见,与乌托邦式的承诺相去甚远。我们看到模型训练的能耗惊人增长,加剧了环境问题。为这些模型提供数据的管道充斥着隐私侵犯,并大规模延续现有偏见,导致从信用评分到刑事司法等各个领域的歧视性结果。民主机构正被人工智能用于散布虚假信息的武器化所侵蚀,国家安全也因依赖不透明的“黑箱”系统而面临风险。这些不是小故障;它们是一个不惜一切代价追求规模、不顾伦理底线或公共问责的系统的系统性结果。这是大型科技公司权力动态的放大,带着一种关乎存亡的意味。
对比观点
加速AGI研发的倡导者,往往是那些从中获益最多的公司和投资者,他们经常反驳说,这些担忧要么言过其实,要么可以通过未来的AI迭代解决,要么仅仅是革命性技术发展过程中必要的阵痛。他们认为,AGI代表着人类解决气候变化、疾病和资源匮乏等棘手问题的最佳,甚至可能是唯一的希望。从这个角度看,监管干预被视为扼杀创新,阻碍通向有益未来的进程,并将全球技术领导地位拱手让给竞争对手。他们会告诉你,巨大的投资规模是对信念的证明,而非泡沫的迹象;基础模型虽然目前还不完美,却是通向真正变革性能力的垫脚石,它将使每个人都能民主地获取先进智能。他们暗示,当前的“危害”仅仅是微小的校准问题,未来的、更先进的AI将毫不费力地纠正,就像早期互联网问题随着更好的协议得到解决一样。
前景探讨
对人工智能未来1-2年的现实展望并非通用人工智能(AGI)。它更多是现有模式的延续,只是速度更快、规模更大。我们将看到少数几个主导的基础模型提供商将继续整合,甚至可能加速整合,进一步巩固其市场主导地位。在任何有意义的缓解策略被广泛采纳之前,人工智能的环境足迹可能会显著增长。预计生成式人工智能和大型语言模型的应用将更加复杂,但仍常有缺陷,继续拓展消费者和企业对“人工智能”的接受边界。
最大的障碍并非技术性的,而是政治和伦理方面的。政府能否超越象征性姿态,制定有意义的法规,以促进问责制、确保数据隐私并遏制垄断倾向?社会是否会要求从当前私有、不透明的人工智能开发模式转向更民主、更具公共责任的框架?继续将通用人工智能(AGI)视为万能药,而不解决当前真实存在的危害,只会加深社会成本,并巩固AI Now所警告的权力结构。一个公正且负责任的人工智能未来要求对当前的激励机制进行根本性重新评估。
原文参考: What’s the real cost of chasing AGI? Power consolidation is just the start, says the AI Now Institute (TechCrunch AI)