AI安全之舞:谁在真正主导,又将迈向何种未来?

引言: 在人工智能这场高风险博弈中,OpenAI最近宣布与美国CAISI和英国AISI就人工智能安全达成合作,这听起来令人安心且负责。然而,在合作与“新标准”的表象之下,敏锐的观察者不禁要问:这究竟是真实、强有力的监管,抑或是一项精心策划的策略,旨在由内而外地塑造监管,并可能将权力巩固在少数人手中?
核心提炼
- 此次合作,为“前沿”人工智能公司将如何与政府监管机构互动树立了关键先例,并可能影响未来的监管框架。
- 红队演练和标准制定的结合性,可能允许头部开发者定义可接受的风险参数,从而在政府默许的情况下,有效实现自我监管。
- 确保这些保障措施能够真正独立且具有可强制执行性仍是一个重大挑战,而非仅仅沦为开发商的公关和风险规避工具。
深度解读
OpenAI宣布与美国和英国政府机构“分享”其在加强人工智能安全和保障方面的“进展”,这正是旨在安抚焦虑的立法者和日益警惕的公众的消息。从表面上看,这项涉及“联合红队演练、生物安全保障和自主系统测试”的合作,似乎是缓解先进人工智能所带来的真实风险的一种积极主动、负责任的举措。然而,深入审视后发现,此举与其说是将控制权移交给外部监督,不如说是一种精心策划的策略,旨在争取并塑造监管格局。
历史上,具有重大社会影响的突破性技术——从制药到核能——在广泛部署之前,都面临着严格的、独立制定和执行的监管框架。然而,这项人工智能倡议呈现出一种不同的模式:开发者,即那些正在开发最强大人工智能系统的实体,积极参与为其负责任部署“制定新标准”。这引发了一个固有的利益冲突的根本问题。尽管像OpenAI这样的公司的专业知识无疑至关重要,但允许它们在定义安全参数方面扮演如此重要的角色,有风险,可能导致制定的标准更符合其开发时间表和商业目标,而非普遍严格或真正独立。
考虑具体细节:“联合红队演练”。谁来定义这些红队演练的范围?谁来选择红队成员?什么指标决定成功或失败?如果没有透明、可审计的流程和真正独立的验证,此类努力很容易流于形式。同样,“生物安全保障”值得称赞,但在一个快速发展、往往不透明的研究环境中,它们如何才能得到执行?实际影响可能是一个事实上的两级体系:“前沿”人工智能实验室,凭借其政府合作关系,获得隐含的认可,这可能扼杀那些缺乏资源或政治资本来应对这种定制监管渠道的小型独立开发者的创新和竞争。这项合作不仅仅关乎安全;它关乎定义人工智能治理的未来,而参与其中的各方处于独特的位置,将从他们帮助起草的规则中获益。
对比观点
尽管怀疑是健康的,但另一种观点认为,这种合作模式,尽管不完美,是监管像人工智能这样呈指数级飞速发展技术的唯一务实前进方式。政府,由于其固有的官僚主义节奏和通常有限的技术专长,根本无法跟上人工智能发展的最前沿。直接与OpenAI等实体合作,确保任何安全标准或测试协议都是基于最新的技术理解,并且能够在实际的人工智能系统中实施。这并非是孤立的自我监管,而是一种必要的共生关系,其中公共利益与私营创新相结合。支持者会认为,这种敏捷、动态的方法能够快速适应新威胁,避免用过时的法规扼杀创新,并为政府提供了直接施加影响的渠道,否则这是不可能的。这是一种务实的妥协,旨在确保安全,同时又不牺牲先进人工智能所蕴含的巨大潜在益处。
前景探讨
在未来1-2年内,我们可以预见到更多此类“伙伴关系”被宣布,甚至可能扩展到其他领先的AI实验室和国家。最初的成果很可能是一系列高级别的最佳实践和框架文件,从而建立一层安全表象。然而,真正的考验在于实际执行和独立执法的机制。最大的障碍将是:(1) 真正的独立性:这些“联合”努力将如何演变为真正独立的监督,能够在不被视为扼杀创新的情况下挑战开发者?(2) 可扩展性和范围:这些为“前沿”AI实验室量身定制的安排,能否转化为适用于包括开源模型和小型开发者在内的更广泛AI生态系统的可执行、公平的标准?(3) 事件响应:当面对重大的现实世界AI相关事件时,这个协作框架将如何真正经受住压力,这些事件可能会暴露出自愿或共同设计的保障措施的局限性?当前的做法是外交上的第一步,但通向真正安全和透明AI的道路仍然充满着根本性的挑战。
原文参考: Working with US CAISI and UK AISI to build more secure AI systems (OpenAI Blog)