肖茜:清华大学战略与安全研究中心副主任、人工智能治理研究院副院长
编者按:自2019年10月以来,布鲁金斯学会外交政策项目和清华大学战略与安全研究中心(CISS)共同举办了美中人工智能与国家安全二轨对话。本文由参与此次对话的美中代表团成员共同撰写。本文节选来自清华大学战略与安全研究中心副主任、人工智能国际治理研究院副院长肖茜的观点内容。

西森在制定层级体系以确定哪些触发因素和应对措施需要治理,以及美国和中国可能达成一致作为军事领域人工智能治理的首要步骤方面做出了值得赞扬的努力。她的工作既令人钦佩,也值得尊重。
(此为先前对话内容Melanie W. Sisson 是美国知名的安全与战略政策研究学者。她现任 Brookings Institution Foreign Policy 项目中 “Strobe Talbott Center for Security, Strategy, and Technology” 的高级研究员。)
我赞同她的观点,即中国和美国作为人工智能发展和推广的两个主要国家,在军事领域治理人工智能并防止其伤害平民方面负有特殊责任。然而,我也深刻意识到,在当前战略竞争的氛围下,阻碍两国进行真诚对话与合作的重大挑战。要向前推进,双方必须打破现有的安全困境。
安全困境这一概念由美国政治学家约翰·赫兹于1950年提出,它描述了这样一种情况:国家在追求自身安全的过程中,无意中削弱了他国的安全。相互信任的缺失往往导致军备竞赛、紧张局势升级和潜在冲突。其根源在于对他国意图的不确定性,以及无政府状态的国际体系中固有的普遍不安全感。
根据赫兹的理论,安全困境包含几个决定性要素:
缺乏权威机构来规范国家行为或确保保护的无政府国际环境。
由于对其他行为体意图的不确定性而产生的相互猜疑和恐惧。
为追求自我保护而采取的竞争行为和安全措施。
导致所有相关行为体整体安全水平下降的结果。
中国和美国在人工智能领域的持续竞争表现出这种安全困境的诸多特征。
首先,尽管人工智能快速发展,但仍然没有统一或具有约束力的国际条约来管理人工智能技术。全球人工智能治理仍然是碎片化和区域驱动的,没有普遍权威的机构。主要大国在核心概念、价值取向和监管方法上存在巨大差异,使国际体系处于治理无序状态。
其次,相互猜疑、恐惧和对意图的不确定性长期以来塑造了中美关系的轨迹。自21世纪初以来,中国经济和军事的快速崛起在美国国内引发了关于如何应对的激烈辩论。北京推出"中国制造2025"、积极推进"一带一路"倡议以及加大对高科技产业的投资,促使美国政策制定者日益谨慎地看待中国,担心其挑战美国的全球领导地位。
在技术领域,华盛顿的人工智能行动计划明确强调要在与中国的竞争中"赢得人工智能竞赛"。为此,美国扩大了国家安全的定义,加强了外国投资审查,收紧了对关键技术的出口管制,限制对华技术转让,并以维护国家安全的名义将多家中国企业列入实体清单。
从中国的角度来看,这些行动被视为遏制中国人工智能发展、维护美国霸权、剥夺中国合法技术进步权利的努力。在战略竞争和地缘政治竞争的大背景下,这种不断加深的不信任和不确定性严重缩小了两国在人工智能治理方面进行对话与合作的空间。
第三,世界已进入深度不确定性和系统性风险的时代。地区冲突和地缘政治紧张局势加剧——乌克兰危机持续破坏欧洲安全,而以色列-巴勒斯坦冲突进一步加剧了中东的不稳定。与此同时,人工智能、5G和量子计算等新兴技术正在重塑全球权力结构。气候变化、恐怖主义、网络安全和公共卫生挑战等非传统安全威胁对国际政治的影响日益增强。
在这种背景下,许多国家正在重新评估与全球化相关的经济和安全风险,并转向保护主义或以安全为导向的政策,从而削弱了全球供应链的韧性,侵蚀了跨国合作。各国日益倾向于优先考虑安全竞争,这已成为全球政治的一个显著特征。
第四,中美之间的战略竞争——以华盛顿构建“小院高墙”政策和与志同道合的伙伴组建排他性技术联盟为例——并未增强全球安全。里根国防调查和《2025年慕尼黑安全报告》均揭示了各国普遍存在的不安全感。与此同时,全球技术生态系统的碎片化进一步复杂化了国际合作,加剧了人工智能竞争加剧和技术发展可能失控的风险。
事实上,西森在文章中已经触及了安全困境,她指出“没有创建层级体系以确定优先治理哪些触发因素和应对措施的方法”,并且“没有广泛接受的分析手段来估计任何一种,甚至任何广泛类别的人工智能驱动的军事危机发生的概率。”她提出的三种定义层级体系的方法为如何超越安全困境提供了一些启示。
公平地说,中美之间在人工智能治理方面的任何建立信任措施都需要努力超越安全困境,在当前背景下,重建基本互信是唯一可行的前进道路。双方必须采取具体措施并进行渐进式调整。
以下是一些建议步骤:
重新框定认知并管理竞争。两国需要重新评估它们在人工智能领域如何看待和定位彼此。虽然一定程度的战略竞争可能不可避免,但必须避免将其框定为零和博弈或生存斗争。建立在透明度和可预测性基础上的管控竞争可以与选择性合作共存。我们所处的技术时代具有高度不可预测性和前所未有的发展速度——这些特征在人类历史上无与伦比。中国和美国作为人工智能发展的两个领先国家,需要找到一种方式就如何防止存在性风险以及如何保持人类控制等重要问题进行沟通。通过严格的学术和技术讨论——例如西森提出的构建风险层级体系——启动对话,提供了一个建设性的起点。这种方法不仅有助于增进相互理解,也有助于减少双方之间的误解和误判。
建立明确的国家安全红线。界定和相互承认安全“红线”至关重要。双方应明确划定合作不可行的敏感领域,同时避免不断扩大这些边界的倾向。在此基础上,他们可以在低敏感度领域寻求交流与合作,例如人工智能安全原则、最佳实践和能力建设工作。这种接触将增进相互理解,促进彼此行动的可解释性和可预测性。同时,双方必须保持官方沟通渠道的畅通,即使在危机时期也是如此。习近平和拜登达成的共识——人类必须始终对使用核武器的决定保持人类控制——树立了一个宝贵的先例。这表明,国家安全关切不应妨碍两国就直接关系人类未来的存在性重大问题达成协议。
加强人工智能安全领域的合作。除了在国家之间建立信任的必要性之外,我们还必须面对培养对技术本身信任的挑战。由约书亚·本吉奥教授领导的国际人工智能安全报告将通用人工智能相关的风险分为三大类:恶意使用风险、故障风险和系统性风险。应对这些挑战需要集体、协调和真正全球性的努力。如果没有有效的防护措施或普遍接受的标准,人类将难以对依赖先进技术感到安全。令人鼓舞的是,一个由来自中国和美国以及产业界和学术界的科学家和专家组成的日益壮大的社群已经致力于这项共同事业,为跨国界的建设性合作提供了充满希望的途径。
推进全球人工智能能力和发展目标。2024年,中国和美国分别在联合国大会上共同提案了关于人工智能的决议,为多边参与树立了积极先例。在这一势头的基础上,双方应继续在联合国框架下推动全球人工智能治理,并探索建立权威的国际机制来规范人工智能相关行为并保护所有行为体。作为人工智能技术和创新的两个领先大国,美国和中国有责任为发展中国家的人工智能能力建设做出贡献,帮助缩小全球数字鸿沟,并推进联合国可持续发展目标。在这些领域的联合倡议不仅将加强全球治理,而且还将表明负责任的人工智能发展可以服务于人类的共同利益。
原文链接:
http://brookings.edu/articles/steps-toward-ai-governance-in-the-military-domain/
