美国国防部采纳人工智能伦理准则

2020-02-24 ,

美国防部网站2月24日消息,美国防部今日正式采用国防创新委员会于2019年10月提出的《人工智能准则:美国国防部使用人工智能的伦理建议》。清华大学战略与安全研究中心全文翻译如下:

继2019年10月由国防创新委员会向美国国防部长埃斯珀博士(Dr. Mark T. Esper)提出建议之后,美国国防部今天正式采纳了一系列使用人工智能的伦理准则。

这些建议是在15个月内与商界、政界、学界顶尖人工智能专家进行专业咨询磋商,通过在多个场所设立公众意见反馈点收集大众信息和建议,并经过严肃专业的反馈和分析程序之后所提出的。采纳这些人工智能伦理准则符合美国国防部的人工智能战略目标,即指导美军在人工智能伦理和合法使用人工智能系统方面发挥引领作用。

埃斯珀部长说:“美国及我们的盟国和伙伴,必须加快采用人工智能并引领其在国家安全方面的应用,以此来维持我们的战略地位,在未来的战场上占上风,并维护基于规则的国际秩序。人工智能技术将大幅改变未来战场,但美国对负责任和合法行为的坚定承诺不会动摇。采纳人工智能伦理准则将强化国防部关于坚持人工智能战略中所规定的最高伦理标准的承诺,同时遵守了美军长期以来为技术创新所制定的严格测试和部署标准。”

这些原则与特朗普政府为推动可信赖的人工智能技术而进行的持续努力紧密吻合。2019年,特朗普总统签署了“美国人工智能倡议”(American AI Initiative),这是美国在引领人工智能领域的国家战略。该倡议在保护公民自由、隐私和美国价值的同时,促进人工智能的创新使用。

美国国防部的人工智能伦理准则将建立在美军现有的伦理框架之上。该框架基于《美国宪法》、《美国法典》第10编、《战争法》、现有的国际条约以及长期以来的规范和价值观。虽然现有的框架为符合伦理的行为提供了具有技术中性的持久基础,但人工智能的使用却引发了新的伦理歧义和风险。准则解决了这些新挑战,并确保国防部能够负责任地使用人工智能。

image.png

准则将适用于战斗和非战斗功能,并协助美军在人工智能领域维护其法律、伦理和政策承诺。国防部的人工智能伦理原则主要涵盖五大领域:

1、负责任(Responsible):国防部人员将行使适当的判断力和谨慎义务,同时还要对人工智能功能的开发、部署和使用负责。

2、公平性(Equitable):国防部将采取审慎措施,最大程度减少人工智能功能中的非预期偏见。

3、可溯源(Traceable):国防部的人工智能功能将得到开发和部署,使相关人员对与人工智能功能相适应的技术、开发过程和操作方法具备适当了解,包括采用透明且可审核的方法、数据源以及设计程序和文档。

4、可信赖(Reliable):国防部的人工智能功能将具有明确定义的用途,这些功能的安全性、保障性和有效性将在其整个生命周期内受到测试和保证。

5、可控性(Governable):国防部将设计和建构人工智能功能以实现其预期目的,同时能够检测和避免意外后果,并脱离或停用表现出意外行为的系统。

“埃斯珀部长在人工智能领域的领导能力以及他授权国防部公布人工智能准则的决定,不仅是向国防部证明,也是向世界各国表明:美国和美国国防部坚守伦理承诺,并将在确保民主国家以负责任态度采用新兴科技方面承担领导角色。”美国国防部创新委员会主席埃里克·施密特博士(Dr. Eric Schmidt)表示,“我还要赞扬来自联合人工智能中心的达纳·迪希(Dana Deasy)和沙纳汉中将(Lieutenant General Shanahan),他们的领导在这一努力中起到突出作用。”

国防部的联合人工智能中心(JAIC)将成为国防部协调人工智能伦理准则执行的主要力量。联合人工智能中心正在领导并推动一系列工作组的工作,其成员是来自国防部服务、人工智能和技术部门的专家们。

国防部首席信息官达纳·迪希表示:“我们感谢国防部创新委员会提出的全面而有见地的建议,正是这些建议直接有效地推动国防部采纳了人工智能伦理准则。伦理始终是国防部使用人工智能技术时考虑的第一要素,我们的团队将在这些准则的指导下进行国防部所有相关的人工智能功能的测试、部署和扩展工作。”  


上一篇:于洋 | 发展主义对管制主义的纠偏:欧盟《人工智能白皮书》读后感

下一篇:欧盟发布《人工智能白皮书》