李彬:清华大学战略与安全研究中心客座研究员、国际关系学系教授
传统上,国际军备控制条约主要用来规范缔约国在军备领域的行为。例如,《全面禁止核试验条约》禁止缔约国进行核爆炸试验,《新核裁军条约》对美国、俄罗斯部署的战略武器数量进行设限。随着科学技术的发展,非国家行为体的一些行为逐渐成为国际安全重要关切,需要进行规范。《特定常规武器公约》关于致命性自主武器的政府专家组2018年提交报告指出,“在制定可能的政策措施时,不应将致命性自主武器系统领域的新兴技术人格化。”
如果一个致命性自主武器攻击人类,我们应该将其过程表述为:指挥官启动了这次攻击,或者,程序错误使得机器误操作。我们不应该说:机器人因为恼怒而发起攻击。后面这种说法将机器人格化,或者说拟人化。这种人格化或拟人化的表述会推卸作为设计者和操作者的人所应负担的责任。前述政府专家组报告建议在制定自主武器政策的时候,不应该人格化人工智能技术和相应的设备。
实际上,对人工智能人格化的现象大量来自于非国家行为体,比如科普作家、科幻作家、人工智能企业、意见领袖等。只限制主权国家政府对人工智能技术的人格化,并不能完全阻止非国家行为体在这方面的影响。除了人工智能相关的军事应用,网络攻击、生物武器、化学武器等领域也大量涉及非国家行为体的行为。因此,对非国家行为体行为的规范也应成为国际军备控制一项越来越重要的关注点。
从历史经验和新兴技术的特点来看,在军备领域规范非国家行为体的行为大致有三条路径。
第一条路径是缔结国际军备控制条约,通过规范缔约国的行为来约束非国家行为体。《制止核恐怖主义行为国际公约》便是这一路径的典型案例。实施核恐怖主义行为的恐怖分子是非国家行为体,他们显然不会理会国际条约的约束。但是,《制止核恐怖主义行为国际公约》要求缔约国修改本国刑法,将核恐怖主义行为归为刑事犯罪,而不管核恐怖行为针对的对象是谁。这样,《制止核恐怖主义行为国际公约》就通过要求缔约国有罪化核恐怖行为,达到制止这类行为的目的。另一个案例是《特定常规武器公约•地雷议定书》。该议定书要求缔约国采取立法及其他措施,以防止和制止其管辖或控制下的个人违反议定书或在其管辖或控制下的领土上违反议定书。未来的高新技术军备控制条约可以要求缔约国约束其管辖的非国家行为体,例如,规定书刊作者在可能人格化人工智能技术的出版物中附加说明性注释,从而规避人格化人工智能技术带来的负面影响。
第二条路径是建立行业标准和自律机制。在国际防扩散领域,很多涉军或军民两用品生产厂家建立了出口管制自律机制,用于培训企业员工,加强产品和技术的自我审查,从而降低企业不当出口的风险,同时减少政府监管的负担。2024年10月19日颁布的《中华人民共和国两用物项出口管制条例》就要求,有关商会、协会等行业自律组织采取措施,加强行业自律。2021年7月,通过天津大学生物安全战略研究中心等国际同行的共同努力,《科学家生物安全行为准则天津指南》达成。2025年9月15日,中国网络空间安全协会会同一些重要的人工智能相关企业共同发起《人工智能安全行业自律倡议》。可以期待,这些行业自律的努力也会为生物、人工智能等领域的军备控制贡献力量。
第三条路径是依据国际私法处理跨境的新兴军备事务纠纷。现有军备控制条约属于国际公法,用于调整主权国家行为。一些新兴技术可能带来新的、跨境的、非国家行为体之间的军备事务纠纷,需要从国际私法角度来处理。此前,一些非政府组织、企业等卷入军备出口管制的争议,通过国际司法机构对相关行为进行了调查和审判,国际私法实践在其中发挥了一定作用。以人工智能人格化问题为例,一国的人工智能企业可能会认为另一国的出版机构人格化了自己的人工智能技术,从而出现争议并走向法庭。可以预见,在网络、生物以及人工智能等新兴技术军备控制领域,由于涉及大量非国家行为体,国际私法的协调作用会有所上升。
新兴技术的国际军备领域将会涉及越来越多的非国家行为体,从而引起新的安全关切。为了应对这些关切,国际军控条约、行业自律以及国际私法实践都可能发挥越来越重要的作用。
本文刊登于《世界知识》2025年第21期
