中心承办第八届世界和平论坛分会场“人工智能:技术与治理”

2019-08-21

  由清华大学战略与安全研究中心承办的2019世界和平论坛分会场之“人工智能:技术与治理”,于7月9日在京举行。论坛就人工智能给人类带来的影响、人工智能的发展方向、潜在风险和挑战以及人工智能治理等议题进行了研讨。

  会议由清华大学战略与安全研究中心主任傅莹主持,多位国际国内知名专家和企业领袖出席论坛并发言。会上还发布了战略与安全研究中心人工智能项目组的最新社会调研报告《中国青年视角下的人工智能风险与治理》。


5d5b538363ef2.png

(傅莹主持分论坛)

  近年来,人工智能逐渐成为国际社会广泛关注的话题,人工智能技术的研发和应用带来的机遇与挑战、伦理与法规等问题,在不同领域和学科引发了热烈的讨论。傅莹说,每一次科技的重大突破性发展,都会带来潜在的风险与挑战,人工智能被视为可能会影响人类未来的颠覆性技术,同时,制定相应规范的紧迫感也在上升。“中国在这一领域已经走在世界前列,刚刚发布了《人工智能北京共识》和《新一代人工智能治理原则——发展负责任的人工智能》,”傅莹说:“但人工智能技术的影响不是局限在一国境内的,风险和挑战也往往是跨境和跨界的,是世界性的,因此,国际社会需要通过对话和努力,共同探寻人工智能国际治理的路径。”

  中国科学院院士、清华大学人工智能研究院院长张钹在演中谈到人工智能的两类安全挑战:一类是由人工智能本身技术不够成熟引发的问题;另一类是人工智能作为一项新技术的“双刃剑”特点带来的。他认为,需要从人的自律、规章制度、安全技术三个角度来思考应对措施。同时,他期待看到不同国家、不同学科、科研机构与行业之间的协同合作,以防止人工智能的滥用,使其最大程度服务于人类社会的福祉。

5d5b53c301367.png

(中国科学院院士、清华大学人工智能研究院院长张钹发表主旨讲话)

  电气与电子工程师协会(IEEE)的约翰·哈文斯(John C. Havens)强调了制定人工智能领域“标准”的重要性。作为IEEE全球自动化及智能系统伦理倡议执行主任,他表示,好的标准应该容纳广泛参与,由各行各业的专家和从业人员、更多的年轻人以及不同国家和文化的人来共同制定。在约翰·哈文斯的论述的基础上,黑斯廷斯中心顾问,耶鲁大学生物伦理学跨学科中心科技与伦理学科主任温德尔·瓦拉赫(Wendell Wallach)补充讨论了如何将标准、规范和建议,真正落实到社会生产和生活中。

  中国学者们在演讲中回应了不久前发布的《人工智能北京共识》和《新一代人工智能治理原则——发展负责任的人工智能》,他们十分关注中国在该领域与国际社会的互动。

  “美国、欧洲、日本这些世界主要的经济体都出台了自己的人工智能的战略。”中国电子信息产业发展研究院(赛迪研究院)政策法规所所长栾群说:“但我相信我们也需要立足于中国文化的背景原则和规则。”作为《新一代人工智能治理原则》的主要设计者之一,中国科学院自动化研究所的类脑智能研究中心副主任曾毅表示,AI的全球治理原则,其宗旨归根结底是以人为核心。“我们需要一种战略性的设计来指导人工智能在未来30-40年的发展,”曾毅说:“我们需要将中国自身的哲学、思维和理念与世界分享,共同打造一个共享的未来。”

  与曾毅所说的中国传统哲学中的“和谐”观念相呼应,香港中文大学系统工程与工程管理学系教授蒙美玲(Helen Meng)认为,“人类和人工智能可以实现一种‘共生’的关系,就像小丑鱼和海葵一样,他们互相依赖、互相保护。”基于人工智能与语言认知相关的项目研究,蒙美玲表达了人类可以通过AI打造“最优工具”,进而服务于社会福祉的积极展望。

  会议进行了两轮的小组座谈,国际国内各行业共16位专家学者作为嘉宾,围绕“人工智能”与“国际治理”展开了讨论,并于与会的媒体、观察员、学生和听众们进行了活跃的互动。

5d5b541cefd39.png

(格雷戈里·艾伦谈如何让人工智能朝着“安全”的方向发展)

  对于人工智能技术本身的发展,各国专家学者提出了丰富多样的观点。新美国安全中心兼职高级研究员格雷戈里·艾伦(Gregory Allen)打了个比方,他说,电刚投入使用时,出现过许多问题,包括大量的事故和失火,人类不断完善技术,尤其对电的安全给予了高度的重视和投入,现在电已经是非常安全的技术。因此,人们需要更多思考如何让人工智能朝着“安全”的方向发展。马孔·福斯特是复旦大学哲学学院特聘教授,他认为,描述人工智能技术本身的概念和语言,解释这个技术的方式,应该便于人们获取和理解。他相信在“理解”的基础上才能制定更好的政策,实现更好的治理。清华大学人工智能研究院常务副院长孙茂松教授则表示,人工智能并不是“无所不能”的,“AlphaGo”也是在特定的条件,明确的边界和单一的任务下才表现出优势。他说,正如机器翻译可以用在旅游中却很少用于外交场合,《孙子兵法》的出其不意只能教给人却无法教给机器,有很多事是人工智能做不到的。孙茂松认为,人工智能相关的讨论很有价值,但政策和规范不宜超前。

  人工智能与军事相结合的问题也得到关注。斯德哥尔摩国际和平研究所的高级研究员司乐如(Lora Saalman)表示,人工智能的军事化运用也是“双刃剑”。它拥有的“机器学习”和“自主能力”既可以增加预警、防御、侦查、模拟能力,增强稳定性,也可以改善非战略核武器和导弹系统,推动军备竞赛,加剧不对称性,从而带来不稳定性。布鲁金斯学会外交政策项目客座研究员汤姆·斯特凡尼克(Tom Stefanick)则认为,现代AI并不大可能在可预见的未来改变大多数军事系统,随着持续性的在基础人工智能、算法研究等方面的国际合作,AI的发展也不会带来军事方面的巨大差距。新美国安全中心高级研究员兼主任保罗·斯査瑞(Paul Scharre)则强调了“人”的重要性。他认为人类的大脑是最好、最先进的认知系统,在军事决策中,人类应当保持对人工智能的控制,由人类而不是机器做决策。

  网络安全也是人们关注的问题。北京师范大学网络法治国际中心执行主任吴沈括谈到,新技术攻击、新内容攻击、新内容犯罪将是人工智能带来的网络安全挑战。兰德公司副首席技术官兰德·沃兹曼(Rand Waltzman)则表达了对“黑客”问题的担忧。他表示在AI领域三十多年的从业经验体会是,最大的问题是防范AI黑客行为,这一话题虽然较少出现在相关讨论中,但其风巨大,不可忽视。

  结合企业创新经验,地平线创始人兼 CEO余凯,以及腾讯信息安全执行委员会主任杨鹏,也分别以“计算的趋势”和“科技向善”为关键词进行了分享,表达了企业与研究机构共同努力,打造更加安全、可靠的人工智能技术的决心和希望。

5d5b5483e810a.png

(地平线CEO余凯介绍“计算的趋势”)

  会议还为青年提供了发声的舞台。在清华大学交叉信息研究院助理教授于洋的带领下,清华大学电子工程系大三年级的腾龙和蒋建平两位同学,发布了战略与安全研究中心人工智能项目组的最新社会调研报告《中国青年视角下的人工智能风险与治理》。他们表示,相比较专家学者们对AI在政治、军事、安全等领域的关注,青年群体更加关注AI对经济和社会的影响。在他们的调查中,青年群体对人工智能与就业、消费、个人信息安全等问题有较高的关注。

5d5b54a9d0319.png

(《中国青年视角下的人工智能风险与治理》社会调研报告发布)

  在场的嘉宾、观察员和听众也和发言的专家学者们进行了热烈的讨论,话题涵盖与AI相关的政策、教育、环境等各个方面。会议主持人傅莹感谢了所有参与会议与讨论的来宾,以及投入该领域的青年人们,希望大家的研究和讨论不断深入。“清华大学主办的这个论坛叫世界和平论坛,”傅莹说,“尽管形势波云诡谲,只要我们都相信和平,我们就有理由继续努力前行。”  

1583421142711029233.png

5d5b54e78f248.png

(记者:谢铭琪)(完)


上一篇:清华大学战略与安全研究中心合办香港问题专题研讨会

下一篇:傅莹出席第八届世界和平论坛“国际安全治理”小组论坛