栏目分类
《人工智能国际治理观察》189期
发布日期:2025-01-07 14:22 点击次数:202
「新美国安全中心:人工智能监管不能借鉴国际核军备控制模式」
2023年6月13日,新美国安全中心(Center for a New American Security)发表其副研究员比尔·德雷塞尔(Bill Drexel)和研究助理Michael Depp撰写的评论文章《每个国家在人工智能上都是独立的:为什么人工智能监管不能模仿国际核管制的进程?(Every Country Is on Its Own on AI: Why AI regulation can’t follow in the footsteps of international nuclear controls)》。文章指出,无论国际人工智能控制制度看起来多么有吸引力,在今天的政治气候下实现这一愿景的成功都远未得到保证,也无法使其与人工智能的发展速度相匹配。因此,领先的人工智能实验室必须相互合作,并与其政府合作,还需设置必要的防范机制,而不是指望重演冷战时期岌岌可危、政治上充满争议的成功。
首先,作者指出,现在,包括行业领先者OpenAI的负责人在内的一些人,正避免把人工智能灾难的希望寄托在建立冷战后出现的核军备控制风格的全球人工智能治理结构上,但核军备控制模式确实是一个诱人的可避免灾难性人工智能风险的模式。从概念上讲,这可能是一个深受欢迎的进展,其将有助于减轻人工智能已经带来的广泛的严重风险。英国首相里希·苏纳克(Rishi Sunak)也于上周向美国总统乔·拜登(Joe Biden)介绍了此概念,并正在争取让英国成为这个新机构的所在地。但是,考虑到核军备控制的历史和今天的状况,迅速建立这样一个机构以配合人工智能的加速发展可能只是一个白日梦。而在这样没有国际机构,以及在地缘政治利害关系和该技术的确切风险仍待确定的情况下,前沿实验室及其政府必须对新的人工智能能力所带来的危险承担责任,并采取相应的行动。目前,世界尚未存在任何核交换,核库存已成功减少了80%,且有相当一部分国家不持有核武器,但是,事后看来,这些成就在过去和今天是多么的不稳定,建立对避免核灾难至关重要的协议和机构也是一个缓慢且不确定的过程。从1945年美国获得第一枚核武器到1957年国际原子能机构(International Atomic Energy Agency, IAEA)的成立历经12年。国际原子能机构( International Atomic Energy Agency,IAEA)模式也是OpenAI首席执行官山姆·阿尔特曼(SSam Altman)和联合国秘书长安东尼奥·古特雷斯(Antonio Guterres)建议作为新的人工智能监管制度的模式。但在这个12年间,英国和苏联也获得了核武器,美国的核武库迅速增长,为核军备竞赛创造了条件。在成立后的头十年,IAEA主要关注和平核能技术的安全问题,直到1968年才真正承担起更为著名的防扩散职责,而此时法国、中国和以色列也已经持有了核武器。此后多年,超级大国之间的核战争会带来全球毁灭的明确威胁未能产生强有力的核控制,直到古巴导弹危机才使严肃的军备控制措施得以形成,而这些措施往往是通过临时条约或规范而不是正式的国际机构来实施的。
作者进一步指出,人工智能多边合作合法性的拥趸如果推动建立新的国际原子能机构,就会发现,在阻止国家武装方面,美国对不扩散的顽固坚持比国际机构更有影响力。现实政治也可以扭曲看似人道主义的遏制灾难性风险的努力,如最初美国提议成立IAEA,部分原因是为了分散人们对其加强自身武器库的努力的注意力。因此,尽管人工智能安全专家有核不扩散的先例可以借鉴,但平行的人工智能安全制度可能会遇到类似的问题,甚至更多。条约和多边协议的进展往往比人工智能的发展要慢得多,而人工智能的发展速度非常快,并将由超级大国的激烈竞争利益所决定,在没有发生灾难或险情的情况下,几乎不可能调动政治意愿。此外,目前的地缘政治条件也异常不利于建立一个新的控制制度来应对人工智能的危害。但最大的挑战仍与人工智能本身不断变化的风险有关。因为与核技术相对狭窄的使用场景,即武器和能源生产相比,人工智能可以在高度多样化、不断发展的领域中发挥作用,使监管变得更加复杂,其发展无疑将是未来几十年国家总体经济竞争力的一个关键因素。尽管越来越多的技术名人对潜在的人工智能灾难表示担忧,认为其规模类似于核灾难,但这种危险的具体内容仍然不明确。在政府对地缘政治优势和先进人工智能相关风险之间的权衡有了更清晰的认识之前,不可能建立起人工智能领导人所设想的那种控制制度。
最后,作者指出,努力建立一个国际人工智能控制机构仍应是一个高度优先事项,这样的机构也会在减轻风险方面发挥重要作用。但这一计划的支持者应该明确,人类将不得不在地缘政治不确定的氛围中,利用缓慢、模糊的国际协调机制来驾驭严重的新技术风险。如果人工智能系统如其行业领导者认为的那样构成了紧迫和严重的危险,用于减轻危害的国际协议可能不会在灾难性危险到来之前及时生效。另外,前沿实验室在努力寻求国际解决方案,但鉴于只有少数实验室处于新兴技术能力的前沿,在它们之间协调规范和保障措施应该比在国际论坛上寻求政府间的共识更容易实现,行业领导者们也应该认识到其自身有责任解决严重的新挑战。各国政府同样可以通过传统的方法发挥巨大的作用,即建立具有法律约束力的安全标准,许可建立最复杂的人工智能模型所需的资源,并使法律结构现代化,以涵盖新的人工智能使用案例。
比尔·德雷塞尔(Bill Drexel):新美国安全中心技术和国家安全项目副研究员,重点研究人工智能在国防和更广泛的技术竞争中的应用风险。
Michael Depp:新美国安全中心人工智能安全与稳定项目研究助理。
原文链接:
https://www.cnas.org/publications/commentary/every-country-is-on-its-own-on-ai
上一篇:MOLI万站,正式上线