2025年12月4日至5日,“人道主义行动中技术负责任使用”研讨会在京举行。本次活动由清华大学战略与安全研究中心(CISS)与红十字国际委员会(ICRC)共同举办。研讨会邀请来自中国、荷兰、瑞士、瑞典、卢森堡、俄罗斯、韩国等国的八十余位专家学者与会研讨。此次会议设一场主旨论坛,并分别围绕负责任人工智能、技术向善、人工智能安全、数字信任开展四场分论坛讨论。

12月4日上午,研讨会正式拉开帷幕。CISS副主任肖茜主持开幕致辞和主旨演讲环节。清华大学校务委员会副主任杨斌,红十字国际委员会主席中国事务个人特使、东亚地区代表处主任史德林(Balthasar Staehelin)出席开幕式并致辞。
“纵观人类文明长河,技术始终是社会进步的驱动力。但正因技术蕴含巨大潜力,我们必须确保负责任地加以使用,”杨斌重点介绍了中国和清华大学在推进人工智能伦理、治理及科技向善行动方面所做的努力,并表示相信本次研讨会将为与会者提供一个交流见解、分享经验的平台,并就如何在人道行动中负责任地使用技术达成共识。

史德林表示,“我们期待共同探索能够为人道行动提供支持的技术解决方案,就如何负责任地开发和使用技术以造福人类进行对话并推动其进展。”中国在技术领域的领导地位为人道行动提供了巨大机遇。通过携手合作,我们能够开发优先考虑人道、安全与尊严的解决方案,同时应对新兴技术带来的风险。

随后,中国新一代人工智能发展战略研究院执行院长龚克、中国军控与裁军协会秘书长戴怀成、红十字国际委员会卢森堡全球网络事务代表处主任埃尔斯·德布夫(Els Debuf)、北京前瞻人工智能安全与治理研究院创始院长曾毅做主旨演讲。
龚克就如何在人道行动中负责任使用人工智能,提出了多个实用路径:优先开发解决紧迫人道需求的应用,确保数据集的包容性与代表性,建立全球事件报告与学习系统,并构建问责机制。
戴怀成介绍了中国最近发表的《新时代的中国军控、裁军与防扩散》白皮书,表示该文件首次专题阐述了中国在人工智能军事应用领域的政策主张,倡导践行人类命运共同体理念,坚持发展安全并重,确保人工智能军事应用安全、可靠、可控。白皮书还指出,应确保人工智能军事应用符合国际人道法和其他适用的国际法。
德布夫强调,通过其机构战略、《人工智能政策》及红十字与红新月运动关于保护武装冲突中平民免受数字伤害的决议,委员会致力于实现秉持原则的数字化转型。她强调人道与科技领域需加强合作,呼吁在新科技产品和工具的设计阶段就融入人道伦理,因为后期调整将使整合过程变得复杂且困难。
曾毅警告称,人工智能系统正变得日渐强大,但相应的安全改进措施却未能同步。他主导和参与的多项测评结果显示,大型人工智能模型容易受到攻击,包括在高风险的科学和军事领域,并强调科学原理上无法通过数字证明来保证绝对安全。他呼吁在不可接受的人工智能用途方面划定明确的国际“红线”,并敦促采取协调一致的全球行动,以防止灾难性风险,维护国际和平与安全。

开幕式小组讨论环节由史德林主持,CISS副主任陈琪,伊迪亚研究所(Idiap)主任、洛桑联邦理工学院(EPFL)教授安德烈亚·卡瓦拉罗(Andrea Cavallaro),伏羲智库创始人、主任李晓东,红十字国际委员会数字转型和数据部门全球人工智能顾问布莱兹·罗贝尔(Blaise Robert)围绕“新兴技术在人道主义行动中机遇与挑战”开展交流。

分论坛一“负责任的人工智能:伦理、安全与问责治理”主要聚焦于联合国框架下的全球人工智能安全治理方案。讨论围绕人工智能全生命周期责任界定展开,重点关注军事领域责任矩阵的构建与危机应对机制,并就人工智能双用途风险管控、开源与闭源路径选择,以及如何通过技术共享缩小全球数字鸿沟等关键议题进行深入交流。

分论坛二“技术向善:技术如何支持高效协同的危机应对”重点关注如何确保“技术向善”在危机场景中转化为保护脆弱群体的行动能力。与会嘉宾围绕科技企业倡议如何落地展开讨论。

分论坛三“人工智能安全保障:危机环境负责任部署的可行防范措施”集中讨论了人工智能在危机环境中的多样化应用案例及相关风险,并针对人道行动中人工智能的使用(重点关注模型采购、数据使用与治理)讨论具体的实际风险缓解建议与保障措施。

分论坛四“数字信任:构建和维护在互联世界中的信心”的关注核心则为如何在高度互联的数字环境中构建可持续、跨体系、安全可信的数字人道空间。

包括联合国机构在内的国际组织、国内外高校、智库机构及产业界等专家学者参与讨论,旨在进一步凝聚国际社会对技术负责任使用的共识,推动形成跨领域、跨国家的合作网络,共同探索人道主义行动中技术负责任使用的路径与方案,让技术更好地为弱势群体赋能,为全球人道主义事业发展贡献科技向善的力量。

