2020年12月18日晚上九点,在首届清华大学人工智能合作与治理国际论坛上举行了“人工智能与国际安全:挑战与机遇”分论坛,由清华大学战略与安全研究中心(以下简称中心)承办。此次分论坛重点公布和通报了中心与布鲁金斯学会联合研究项目“人工智能与国际安全”的初步成果,这个项目得到博古睿研究院和明德路基金会的共同支持。
清华大学战略与安全研究中心主任、人工智能国际治理研究院名誉院长傅莹和布鲁金斯学会主席约翰·艾伦(John Allen)围绕会议主题做主旨发言。清华大学战略与安全研究中心高级研究员、国际关系学系教授李彬对联合研究的情况和中方专家关于智能武器风险和治理的思路做了详细介绍。中国电科发展战略研究中心高级工程师郝英好、中国军控与裁军协会副会长兼秘书长李驰江、博古睿研究院项目副总裁尼尔斯·吉尔曼(Nils Gilman)、布鲁金斯学会研究员克里斯·梅塞罗(Chris Meserole)、布鲁金斯学会访问研究员汤姆·斯蒂芬尼克(Tom Stefanick)等项目成员,就人工智能的攻击禁区、数据安全风险、对国际法的挑战以及中美在全球治理上的合作等问题分别发表观点。分论坛由清华大学战略与安全研究中心副主任肖茜主持。
约翰·艾伦在主旨发言中提到,中美在人工智能等新兴技术领域的战略竞争日益明显,围绕着“人工智能军备竞赛”的说法不绝于耳。为了避免不可控的军备竞赛,他希望“人工智能与国际安全”项目中所讨论的安全关切,能够在政府层面对话和非官方论坛中得到进一步探讨,特别是针对人工智能所构成的国家安全风险,以降低这些风险发生的可能性。他认为现在正是规范技术发展和应用的关键期,呼吁美中两国的政府和专家团体能够抓住当下的机遇,围绕降低人工智能可能构成的国家安全风险的实际步骤达成共识。
傅莹在主旨发言中重点介绍了中国关于人工智能治理国际合作的主张,她说,今年11月中国国家主席习近平在二十国集团(G20)峰会上强调,中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实G20人工智能原则,引领全球人工智能的健康发展。今年9月,中国国务委员兼外长王毅提出《全球数据安全倡议》,表示希望国际社会在普遍参与的基础上就人工智能的安全问题达成国际协议,支持通过双边或多边协议的形式确认倡议中的承诺。他提出有效应对数据安全风险应遵循的三项原则,包括秉持多边主义、兼顾安全发展和坚守公平正义等。
她说,中美关于人工智能安全治理的联合研究项目是一个成功的案例,双方都从中受益良多,研究结果也有很好的参考价值。既然人工智能武器化不可避免,我们需要寻找合适的治理路径。人类必须汲取历史教训,例如对核武器的治理共识就发生的太晚,导致人类曾经面临巨大威胁,互联网的治理也没有能够在早期实现。大家希望这次对人工智能,尤其是智能武器的治理,人类能走在技术变革的前面,充分认识其风险,早些达成治理共识。在讨论人工智能国际治理时,人们经常引用在核武器治理方面享有声誉的Pugwash机构(帕格沃什科学和世界事务会议),这一机构在核军控领域起到了积极作用。在推动人工智能的国际治理方面,也可以参考这样的方式,成立一个由科研人员、政府和政策专业人士组成的“人工智能国际治理委员会”。
中方团队牵头人李彬在总结中方团队研究的进展和发现时说,国际法的基本准则应该被纳入到人工智能武器的设计和部署之中,从而确保使用智能武器进行武力攻击时符合国际法律规范。他谈到武力法和武装冲突法的运用,主张用国际法的基本原则指导人工智能军用技术的开发,同时还应该在人工智能程序员和军事操作人员中开展教育,让他们更好地理解和在实践中贯彻使用武力法中的相称性原则和武装冲突法中的比例原则。
在座谈环节,专家就中美如何在人工智能治理领域合作展开深入讨论并表示,中美两国是人工智能大国,都有防范军用人工智能技术风险和完善治理的需求。人工智能技术的滥用或者偏差有可能冲击战略稳定、改变交战规则,抬高军事风险。中美都有较强的风险管控需求和共同利益。因此,中美在人工智能国际治理中有很大的合作空间。有专家指出,人工智能在数据收集、算法训练和战场应用中,必须遵守国际法中的比例原则和区分原则,不能攻击平民或民用设施,造成过多的伤害。中方专家提出采用数据收集的“红绿灯”规则,禁止人工智能武器攻击民用目标,只能对完全确认的军用目标发动进攻。这个措施可以使人工智能更好地遵守国际法。
最后,专家们表示,包括中美在内的世界各国可以通过政策交流、互换文件、学者探讨等多种方式,增信释疑,实现在人工智能安全问题上形成国际治理共识。