“中美人工智能与国际安全二轨对话”阶段性报告

2024-04-06

2019年10月,清华大学战略与安全研究中心与美国布鲁金斯学会聚焦人工智能安全治理前瞻性议题,联合启动“中美人工智能与国际安全二轨对话”项目。截至2024年2月,中美专家组已开展九轮线下或线上对话,主要取得如下共识和进展:

一、人工智能治理的起点是识别潜在安全风险。中美双方专家组认为,国际社会在人工智能技术发展与应用过程中应高度关注其潜在的安全风险,具体包括但不限于:一是人工智能技术的不可知性。人工智能技术迭代迅速,具有自我学习和自我进化能力,其处理逻辑可能超出人类认知边界,因而带来安全风险。二是人工智能算法歧视。由于目前还不可能完全避免人工智能应用中的算法偏见和歧视,因此人工智能技术应用可能超出人类道德伦理规范。三是人工智能技术滥用。人工智能技术不像核武器具有很高的技术获取门槛,容易落入黑客、恐怖分子等非国家行为手中,危及公共安全。

二、明确人工智能术语内涵。目前国际社会缺乏统一的人工智能术语体系,针对同一概念存在多种表意,不利于技术治理的交流和理解。鉴于此,双方专家组商定并成立了人工智能术语联合工作组,以各自官方和权威文件中出现的术语和解释为基础,按照各自表述、求同存异的原则,通过定期沟通,联提一份人工智能概念术语清单或手册,为后续在更广泛相关领域的对话奠定基础。目前中方专家组提出相关术语64条,美方专家组提出42条,双方作出共同解释的术语共25条。在2024年2月慕尼黑对话中,双方重点探讨6条核心术语,包括;武器系统、无人系统、自主武器系统、致命性、自主与自动化、人机交互。

三、借助场景推演分析军用人工智能相关冲突机理与管控举措。人工智能军事应用可能带来的风险是全球关注焦点,双方专家商定成立人工智能应用场景推演联合工作组,通过人工智能典型军事应用场景推演,探讨如何制定人工智能武器系统使用规则、识别风险、建立危机管控和故障应急机制以及建立信任措施等议题。同时,双方还就想定设计与编撰等提出一些基本原则,并一致同意后期将讨论情况汇集成册。

四、探索人工智能安全治理路径。鉴于人工智能技术普遍具有两用性,双方认为中美两国作为人工智能大国,应当在技术发展方面带头采取审慎态度,合作推动全球人工智能技术向善。尽管两国在民用治理层面依据逻辑有别,但不妨碍通过对话平台交流经验,共同为塑造全球安全的未来做出贡献。

在中美元首旧金山会晤中,双方同意建立人工智能领域政府间对话机制,不仅对推动中美双边关系稳定具有积极作用,对推进全球人工智能治理具有重大战略意义。清华大学战略与安全研究中心与布鲁金斯学会的“中美人工智能与国际安全二轨对话”项目将沿着现有议题方向深入推进,发挥智库间对话的灵活性和专业性,积累共识,缩小分歧,努力推动中美人工智能领域的交流与沟通,为塑造全球安全的未来贡献力量。


附:CISS中美人工智能与国际安全二轨对话项目组成员名单

肖  茜  清华大学战略与安全研究中心副主任

陈  琪  清华大学战略与安全研究中心副主任

孙成昊  清华大学战略与安全研究中心助理研究员

董  汀  清华大学战略与安全研究中心助理研究员

徐纬地  国防大学原战略研究所研究员

李  强  中国政法大学军事法研究所所长、副教授

李睿深  清华大学战略与安全研究中心特约专家,北京师范大学互联网发展研究院副院长

刘  冲  中国现代国际关系研究院国际安全所所长

刘  伟  北京邮电大学人工智能学院人机交互与认知工程实验室主任、研究员

鲁传颖  清华大学战略与安全研究中心特约专家,上海国际问题研究院公共政策与创新研究所副所长、研究员

祁昊天  北京大学国际关系学院助理教授、国际安全与和平研究中心副主任

吴日强  清华大学国际关系学系教授

徐  源  北京理工大学人文与社会科学学院教授

张  伶  原国防大学国家安全学院副教授

朱荣生  清华大学战略与安全研究中心特约专家

郑乐锋  清华大学战略与安全研究中心人工智能与国际安全项目专员

张  丁  清华大学战略与安全研究中心研究助理

以及部分未列入名单的重要项目组成员



下一篇:全球安全倡议下的中国人工智能治理路径