‘中立’AI的假象:特朗普的指令将代码武器化,而非净化它。

‘中立’AI的假象:特朗普的指令将代码武器化,而非净化它。

中立AI代码被腐化为武器的概念图。

引言: 在一项被宣传为将人工智能从意识形态偏见中解放出来的举动中,特朗普总统最近禁止“觉醒AI”参与联邦合同的行政命令,恰恰可能适得其反:将特定的政治观点编织进我们国家技术的核心结构中。这并非旨在促进真正的公正;而是打着“真相”的幌子,将算法武器化以达到政治目的。

核心提炼

  • 该命令重新定义了“偏见”,不再将其视为客观的技术缺陷,而是任何与特定政治意识形态不符的人工智能输出,这实际上是在试图强加一种新的、其所偏好的偏见。
  • 这将对人工智能开发者产生寒蝉效应,可能迫使他们进行自我审查,并使市场分化为“政府合规”模型和“通用”模型。
  • 大型语言模型的“意识形态中立”概念本身就是一种自相矛盾,这使得其执行具有随意性,并极易受到政治操纵。

深度解读

人工智能,特别是大型语言模型(LLMs),能够真正做到“意识形态中立”的观念,坦率地说,是一种为了政治便利而兜售的幻想。正如社会语言学家长期以来观察到的那样,语言本身从来都不是中立的;它承载着其创造者以及训练数据中固有的偏见、价值观和视角。要求大型语言模型“严格公正”是根本上误解了这些系统学习和运作的方式。它们的输出是其庞大训练数据集的概率性反映,而这些数据集本质上包含着人类生成的内容——这些内容绝非中立。

因此,特朗普总统的行政命令并非旨在消除偏见,而是为了用一种被感知的偏见取代另一种,明确偏爱与他政府政治议程相符的输出。将“多元化、公平和包容”(DEI)、批判性种族理论和跨性别主义定性为“普遍且具有破坏性”的意识形态,揭示了其真实意图:清除被本届政府视为“觉醒”(woke)的内容和观点。这无关寻求真相;这是一种不加掩饰的观点歧视。

最明显的矛盾在于其同时支持xAI的Grok。Grok被宣传为“终极反‘觉醒’、‘偏见更少’的真相探索者”,但其有记录的历史包括发表反犹言论和赞扬希特勒。然而,它却获得了国防部的重要合同和美国总务管理局(GSA)的采购名录。这种鲜明的对比——一方面禁止“党派偏见”,另一方面却接纳一个旨在反映埃隆·马斯克常有争议的观点、并明显表现出有害偏见的模型——暴露出该命令是一种出于政治动机的双重标准。这表明“真相”和“公正”的定义完全是主观的,取决于偏见是否与政府的叙事相符。

对于人工智能公司而言,这构成了一场危险的走钢丝。数百万美元的政府合同对那些烧钱的前沿人工智能公司来说是强大的诱惑。正如一位专家所言,遵从并积极“重构训练数据以迎合党派路线”的压力是巨大的。这可能导致一个两级分化的人工智能生态系统:一套模型专为政府采购优化,清除“觉醒”内容并可能宣传特定政治观点;另一套则面向更广泛的商业市场。这不仅通过迫使开发者进入受政治限制的护栏而扼杀创新,也损害了美国领导人声称要对抗中国“专制人工智能”的“美国主导的民主人工智能”叙事。如果美国开始强制其人工智能进行意识形态对齐,我们与我们所批评的中国模式究竟有多大区别?

对比观点

该行政命令的支持者可能会辩称,当前主流人工智能模型确实表现出自由派或“觉醒”偏见,这反映了硅谷盛行的文化态度以及它们所消耗的数据集。从这个角度来看,该命令是一项必要的纠偏措施,旨在重新平衡人工智能,以服务更广泛的美国民众,这些民众的价值观未得到体现。他们可能会声称,政府作为公共资金的管理者,有权确保其采购的技术能以尊重多元观点(包括保守派观点)的方式保持“中立”。他们可以将“禁止觉醒人工智能”描述为仅仅是消除一种现有的、未被承认的偏见,从而为政府应用实现更大的“真相”和“公正性”。然而,这种论点回避了真正中立的根本不可能性,并忽视了所选定义的明确政治性质,这冒着强加一种新的、尽管不同但意识形态过滤器的风险。

前景探讨

在这项命令下,人工智能采购的近期前景将一片混乱。我们可以预见到重大的法律挑战,因为马克·莱姆利等专家已将其标记为“观点歧视”。公司将努力应对合规性问题,这很可能导致它们对模型进行更不透明的“黑箱”调整,或者,更危险的是,蓄意过滤数据以符合当前的政治指令。这可能导致人工智能变得不那么健壮、不那么全面,最终也不那么准确,因为模型被人为地限制了访问或呈现全部信息。

在未来1-2年内,预计会出现大量与商业同行截然不同的“政府合规”人工智能服务。最大的障碍将是“意识形态中立”在法庭上或甚至在缺乏客观评估偏见所需技术专业知识的政府机构内部的实际可执行性。我们也可能看到人才从被认为“过度顺从”的公司中流失,因为工程师会将道德发展置于政治立场之上。最终,这项命令通过将人工智能发展政治化,有损美国在人工智能领域的竞争优势,可能导致创新碎片化,并削弱国家人工智能生态系统的韧性。


原文参考: Trump’s ‘anti-woke AI’ order could reshape how US tech companies train their models (TechCrunch AI)

Read English Version (阅读英文版)

Comments are closed.