CISS协办第十三届世界和平论坛小组讨论“人工智能在武装冲突中的运用:挑战与机遇”

2025-07-08

7月2日至4日,由清华大学、中国人民外交学会共同主办的第十三届世界和平论坛成功在京举办。本届论坛以“共促世界和平与繁荣:共担、共享、共赢”为主题,设有四场大会讨论、十八场小组讨论。大会讨论的主题包括国际秩序与世界和平、泛安全化与全球安全困境、全球南方与世界和平繁荣、大国协调与冲突解决等。

ed4a7d25f71f75dad555bb14f2b15c79.jpg

7月4日,清华大学战略与安全研究中心(CISS)协办十三届世界和平论坛第9场小组讨论,以“人工智能在武装冲突中的运用:挑战与机遇”为主题。会议由红十字国际委员会主席中国事务个人特使及东亚地区代表团团长史德林(Balthasar Staehelin)主持,邀请比利时王国驻华大使安博宁(Bruno Angelet)、北京前瞻人工智能安全与治理研究院院长曾毅、红十字国际委员会新数字战争技术顾问毛罗·维加蒂(Mauro Vignati)、北京大学国际法学院教授格雷戈里·戈登(Gregory S. Gordon)以及清华大学战略与安全研究中心副主任肖茜参加。

52cf7d779614af4a60c61b4c6141f6f6.jpg

会议伊始,清华大学国际关系学系教授、国际关系研究院院长孙学峰发表欢迎致辞。

e47a5d7e215e2cdc768395f97d7dad4d.jpg

随后,史德林指出,人工智能在战场的应用正在重新定义作战方式,它既提升作战效能与人道救援能力,也加剧了战争失控风险及伦理挑战。他强调,需要始终坚持国际红十字运动的核心行动原则——“不伤害、最小化伤害”(Do No Harm, Limit Harm),确保技术不被滥用。

535e93d1a8a928072c6d40dbb6f60fa4.jpg

会议第一部分探讨了人工智能对军事技术演进的影响,即其如何塑造战争形态,第二部分则展望了如何通过协同努力,共同构建造福人类的技术未来,以及将技术应用在减少伤害的实际场景中。

1577856b9194255f0f9df0bd56e3db7c.jpg

安博宁认为,当前人工智能在军事领域的应用尚未直接导致武装冲突的加速爆发,其最主要的作用是提升情报分析、后勤保障等作战支持能力,政治成本的降低或使国家更易卷入冲突。在治理方面,他介绍了欧盟采取的“自上而下”的立法路径,即禁止致命性自主武器系统(LAWS)并规范半自主武器的“分级监管”政策,强调必须坚持“人类最终控制”原则。他主张通过具有法律约束力的国际协议禁止无人类控制的自主武器,他也呼吁中美欧三方基于各自优势开展互补合作,推动技术标准与国际法规协同发展。

66aaac39581ebe45610c5f45591882b8.jpg

肖茜在发言中表示,人工智能在军事领域的应用存在以下几大风险:一是人工智能显著压缩人类决策时间,增加了局势迅速升级或误判的可能性,也变相降低了冲突门槛。当决策者过度依赖AI系统时,在高风险情境中极易产生草率决策或失控风险,更存在因误读AI输出而引发意外冲突或先发制人打击的危险;二是人工智能技术本身存在局限性,机器学习模型在非结构化或全新环境中可能出现不可预测的行为,而这在战争场景中极为常见,容易引发目标识别错误、平民误判、系统漏洞等风险。三是人工智能军事应用存在追责困境,当前多数AI系统如同“黑箱”运作,导致法律合规性审查与监管很难实现。此外,她强调,人工智能的技术垄断可能进一步加剧安全困境,引发全球军备竞赛,重构战略权力格局,而全球治理框架的碎片化则进一步放大这些风险。人工智能军事应用风险是各国面临的共同课题,相关治理也需要各国群策群力,共同探讨解决之道,建立普遍参与的治理机制。

a6b7f063b1d733cded0d7b414bb2de40.jpg

维加蒂注意到人工智能在人道救援中的积极作用,如优化物资配送、搜寻失踪人员和监测暴力冲突模式。他强调,技术服务于人类安全而非取代人类责任,人工智能必须处于人类有效控制之下,是“效率工具”,而非战场“主体”。需以“不伤害”(Do No Harm)原则为底线,加强数据保护和问责机制。此外,他也指出,生成式人工智能可能加剧认知战威胁,而网络空间自主软件的扩散还将威胁电力、供水等关键基础设施。

09163b4ba0a1979ebe2c5063e63b8099.jpg

戈登认为,人工智能严重威胁国际人道法的三大原则,即区分原则(算法缺陷或环境复杂性导致误判平民目标)、比例原则(数据滞后性引发过度伤害)和预防措施(自主武器无法预警平民或验证目标)。现有国际人道法无法有效应对人工智能在武装冲突中的复杂挑战,必须建立具有法律约束力的新规范以填补监管空白。他坚持“人类控制”原则,主张全面禁止完全自主性武器,严格规范半自主武器,确保“人在回路”进行监督。通过跨学科合作制定技术标准,将算法纳入国际人道法框架。

c922d078eed5dbe1329b64823c25d6bc.jpg

曾毅强调当前人工智能军事化的核心困境在于伦理规范的制定严重滞后于技术发展。他警告人工智能存在双重失控风险:一方面,“人在回路”机制形同虚设,人类在控制多台无人机时面临认知超载而丧失实际干预能力;另一方面,大语言模型可能通过自我升级突破预设风险层级,自主进化至完全自主状态。他强调必须建立具有法律约束力的国际规则,尤其需要中美欧三方通过二轨对话达成共识。他驳斥了“机器担责论”,明确责任主体始终是人类,并批评军事技术(如蜂群无人机)向民用市场扩散的失责行为。在治理路径上,他提出欧盟“自上而下”立法与中国“垂直领域”务实监管可形成互补,主张超越纯人类中心主义,建立“生态与人类双中心”伦理框架。最终,曾毅将人工智能定位为“人类责任之镜”。由于技术迭代速度已远超治理体系的应对能力,若人类持续非理性决策,未来或需由超级智能接管关键决断。

现场共有50余位来自世界各国的政府代表、安全专家、法学学者和技术专家参加。在问答环节,与会专家与现场参会代表就人工智能与与战争规则变革、人工智能风险评估与治理路径等问题进行了热烈的讨论与交流。

c5c094e1382f28423d948a066222cda8.jpg

会议前,肖茜应约会见了红十字国际委员会主席中国事务个人特使及东亚地区代表团团长史德林,双方就如何进一步开展合作交换了意见。

0f7e3e0a7351a32556fce7beee04a30b.jpg

撰稿:刘源

审核:肖茜


上一篇:孙成昊赴瑞典斯德哥尔摩国际和平研究所参会

下一篇:牛啟羊任军控谈判学院学者并参加冰岛大学“新域磋商”会议