人工智能国际治理与“不确定性”

2023-12-14

董汀:清华大学战略与安全研究中心助理研究员

黄智尧:中央财经大学 本科生

导语

鉴于人工智能带来的潜在风险和挑战,人工智能治理已经成为全球治理新趋势和国际社会共同课题。清华大学战略与安全研究中心组织专题研究,聚焦人工智能与国际安全治理,跟踪全球人工智能安全治理新动向与重要议题领域,探讨人工智能治理的不确定风险,分析人工智能带来的数字权力竞争与博弈,以及如何共同防范和应对人工智能带来的风险挑战等。现转发部分研究成果,以飨读者。

摘要:人工智能的快速发展给世界带来了巨大的变革和机遇,同时各种伴生的不确定性也给人工智能的国际治理带来了新的风险和挑战。“不确定性”可从客观存在与人主观认知差异的角度分为“确定的不确定”和“不确定的不确定”。中美欧三方的人工智能治理路径与方式表明,当前人工智能治理颇有进展,但尚主要聚焦于数据、算法和人际交互3个方面带来的确定的不确定风险。对于在更广泛国际社会生活中产生的不确定风险,更需要国际社会加强合作与协调,探索应对的途径和策略,确保人工智能发展更加有助于人类社会的共同利益。

人工智能治理已经成为全球治理领域的重要话题。现有讨论多数围绕人工智能技术本身存在的多种不确定性风险,从数据流动、使用或技术伦理的角度进行思考和设计。这些讨论有益于推动美欧等主要国家开展人工智能治理的规则建设。但“不确定性”不能简单地与风险画等号,也就是说,并非预设了针对不同可能的规则,就可以完美治理人工智能技术。本文的研究目标是从超越技术的视角,深入分析人工智能的“不确定性”可能会给国际关系带来何种影响,思考如何推动更广泛的政策建议和规范措施,以促进人工智能的可持续发展和最大化其有益于社会进步的潜力。

一、人工智能与不确定性

1.1 不确定性

确定性是指一种状态,即没有疑问 [1]。确定性所对应的信息与知识没有错误和缺失。唯一性是确定性的本质特征,在条件放宽的情况下,稳定性、规律性也可以视为确定性。不确定性与确定性相对,不确定性是指一种有疑问、知识不完备,乃至无知的状态。人类对现在或未来的事物状态无法给出唯一的准确判断或预测。即使事物的状态或者结果是确定的,也因为人类认知水平的受限,无法清晰完整地认识事物。纵观人类自然科学的发展历史,自近现代的笛卡尔时代起,科学家就在他们自己的研究领域以能否获得确定性的规律和结论作为成败标准,因果必然性的机械决定论已经深入在一众科学家的思想之中。但是随着概率论和统计规律的引入,人类开始研究具有不确定性的相关现象,之后随着混沌系统、量子力学等当代科学的不断深入研究,越来越多的科学成果表明,客观世界的确定性是有限的,不确定性才是更为普遍的情况。

不确定性可以从两个角度来看待。一是客观存在的不确定性,即“确定的不确定”。在现实结果实现之前,其任何一种因果链都是可能的,事物的状态和结果存在多种潜在的可能性,且某种可能性的实现与人类对其的认知无关。二是“不确定的不确定”。人的世界观造成不确定性,即使事物的过程和结果是确定性的,但是因为人的认知路径依赖及事物状态的全部信息不可能完全获取,因此人也无法对事物的确定性做出准确描述,最终结果也不可能随着部分信息的增加而可预知

1.2 人工智能的不确定性来源

人工智能是以基于大数据的复杂算法为核心,以对人类智能的模拟、延伸和超越为目标的技术。人工智能的不确定性主要来自数据、算法、环境交互3个方面。

首先,数据是人工智能技术和产业发展的关键核心要素之一。作为以深度学习为代表的算法模型研究和训练的基础,数据的质量对算法的效果起着至关重要的作用。数据缺失、噪声干扰等问题都会影响算法的输出结果。其次,人工智能的算法逻辑是其做出决策判断的根基。复杂算法可以模拟人类的决策和思维,然而人类无法对算法的每一步编译进行有效控制,无法准确设置各变量的权重,也无法完全明白数以万计的衔接值是如何发挥作用并形成决策树的工作机制的。同时,算法运行的动态性又会加剧各变量之间的关系和权重。

此外,人工智能的不确定性还体现在与环境的交互上。人工智能与外界的交互影响是一个复杂而多层次的互动过程。首先,人工智能在输入数据和训练算法的过程中会面临语境中的各种前提和偏见,社群之间的价值差异、文化隔阂会导致观点立场和预设目标的不同。因此,对不同语境中的主观性、价值对立等不确定的因素难以排除,这些因素在人工智能提取并学习后构成了人工智能的不确定性。最后,对于不同环境下人工智能的认知所形成的共识是受限于环境的,或是短暂的。在不断研究知识的过程中,人们会意识到之前的共识是一种错误观念。同时,人工智能可能被运用于人类不完全认知,甚至尚未认知的领域。

1.3 不确定性的治理风险

1.3.1 数据的法律风险

在数据方面,数据采集过程的合法合规性存在较大的治理风险。从保护个人数据的角度来看,数据主体除了拥有数据的所有权,还有更广泛的权利,其中包括但不限于被遗忘权、数据携带权、限制处理权等。

随着人工智能在日常生活中的广泛应用,我们将面临越来越多与公众隐私权相关的法律风险。算法通常需要不断寻找、挖掘并收集个人的数字活动记录,进而对个人进行精准画像。这个过程主要的风险包括在数据拥有者不知情、未授权前提下的数据收集,在实践中个人信息也很容易被泄露而直接应用于其他商业目的,甚至非法目的。这不仅损害了用户的人格权益,而且还可能因下游侵害产生财产损失。

此外,即使是对公共信息的使用也是存在争议的。公共信息的产生往往是由于利他主义驱动,信息在互联网上被提供,很难控制信息的受众。信息主体在提供数据时并不会预料到数据会被用于人工智能系统,这远远超出了数据主体预设的数据使用预期。同时,由于规模效应使得算法的平均成本下降以及因更大数据集而提升的决策能力,大公司的高能力人工智能会使其所有者变得非常富裕且具有影响力,允许免费使用数据会加速不平等的扩大。有学者要求使用者为公开信息领域的使用付费,建议对于在公共信息领域引入数据使用的累进税。

1.3.2 算法的决策风险

当前,人工智能已深深嵌入社会运行的方方面面,因为算法自身的特性,基于数据和算法的决策并不符合所有社会群体的长远意义,而引发的社会风险主要体现在3个方面:数字鸿沟加剧社群割裂、技术弱势人群利益被忽略、算法偏见强加意愿影响公平。

人工智能可能加剧“信息茧房”现象,由此引发的数字鸿沟会加剧社群的割裂。大众媒体时期,人们会接受各种各样的信息,这一过程打破了信息茧房,而当使用人工智能进行推送之后,用户的信息数据经算法分析后,通过协同过滤、内容推荐、相似性推荐等算法机制,围绕用户的兴趣爱好不断地推送符合其偏好的信息,将与用户观念相左的信息排除在外,平台、算法在一定程度上固化了人们的信息获取途径。算法与用户的相互配合加剧了信息茧房的产生。此外,算法应用平台倾向于将用户划分为不同的群体,以此作为依据推送不同信息,不同社群间形成了一道极深的数字鸿沟,由此加剧了群体内部的极端化程度,导致群体极化现象的产生。

在运用大数据和人工智能技术方面,一方面,技术弱势群体由于缺乏技术培训和资源,他们可能无法充分利用人工智能的潜力,更无法把握数字时代的发展机遇。另一方面,由于经济、社会或地理上的限制,算法可能无法轻松获取技术弱势群体的大量数据,例如,老年人、语言弱势群体、文化弱势群体等人口在互联网中活跃度不高,这使得他们在数据驱动的决策和创新中处于不利地位,人工智能在进行决策时也会忽略这部分群体的情况与立场。弱势群体在数字化过程中遭遇明显的排斥或边缘化,在对相关资源的分配上将弱势群体边缘化甚至遗忘。

同时,算法的设计和编写不可避免地会受到编程人员的主观意识和价值观的影响。在算法实现的过程中,编写者会做出一系列价值取舍,甚至倾向于符合自身利益的选择。这种主观性使得算法天生带有一定程度的偏见。比起技术因素,人为设置的算法偏见更加值得关注,如平台企业可能会以歧视性定价方式对待终端消费者,外卖平台可能会强制骑手进行苛刻的派单和配送要求。因此,我们需要认识到算法的偏见问题,并寻求解决方案来确保算法的公正性和中立性,以保护个人权益和社会公平。

1.3.3 人机交互的道德风险

除了数据选择和算法主体的偏见性,人工智能的使用在人机交互中也存在明显的道德风险。在传统的伦理秩序中,人类决定着机器如何开展工作,机器依附于人类。然而在人工智能时代,人工智能的决策能力远优于人类。在这种情况下,人的主体性开始出现异化的迹象,人类的角色不再是唯一的决策者和控制者。人类变得越来越依赖于机器的智能和技术,而机器则扮演着更加主导和决策的角色。这种变化引发了对人类主体性的关切,我们需要重新思考和定义人与机器的关系,以确保人类的价值和尊严在智能化时代得到充分的保障和尊重。

人工智能的使用者在运用这项技术时,也应该充分意识到其自身在操作和运用过程中所带来的伦理影响。自动驾驶是最容易产生算法伦理困境的一个领域,如在经典的思想实验“电车难题”中,功利主义选择会改变轨道,让电车杀死一个人,功利主义强调利益的最大化,义务主义不会选择改变电车轨道,义务主义强调对规则进行分层,设置明确的优先级。从算法设计的角度来看,优先级最高的规则可以是禁止车辆主动伤害人类、禁止违反法规等限制,人工智能不应该以伤害他人的方式去拯救陷入风险的人 。如果将人类尚未达成统一道德标准的事务交给机器和算法时,将会在人工智能与人交互和实践中产生巨大的争议。

在医疗领域,人工智能辅助决策涉及多个环节和主体,各个主体的价值不同,制造商可能会为了市场利益,医生追求诊断率,政府追求社会效应最大化,发生医疗事故时,算法的技术黑箱将为责任归属带来显见的困难。此外,辅助决策系统可能会使得医生的医疗水平下降,当医生对辅助决策系统建立信任后,医生的诊断能力可能会低于预期水平,医生发现决策系统的错误概率会更小。

在人工智能技术发展中,我们面临一个重要的治理挑战,即如何在享受人工智能带来的收益的同时,规避主体性异化的风险。这意味着我们需要一种平衡之道,使人类智能和人工智能两者的功能都能得到充分发挥,据此,欧美国家均率先做出了探索。

二、“不确定”的人工智能与国际治理

2.1 人工智能对国际治理主体的影响

随着人工智能在全球社会生活中的渗透,参与国际治理的主体变得更加多元。

首先,不同于以往以国家和国际组织为主,新的主体还涵盖了跨国企业和跨国科学家共同体,他们都对国际关系产生重要影响。跨国企业在人工智能技术开发和应用中具有垄断优势,他们将成为在特定领域提供公共产品和服务的重要行为体。他们的独立性和话语权使得其能够在国际关系中独立参与政治交易,并为中小国家提供相应领域的支持和合作。同时,人工智能科学家组成的学术共同体也在推动技术进步,以及在制定技术标准方面发挥着关键作用。一方面,他们构成了一个具有共同范式和价值观的跨国共同体,对于推动人工智能的发展和应用具有重要影响力。另一方面,学术共同体的组建仍具有不确定性,即使能够成为一个具有相对影响力的独立主体,他们依旧要依附于特定的国家。

其次,主权国家和跨国企业之间的关系出现改变。主权国家在与跨国企业互动时需要权衡利益和权利让渡的边界。主权国家也需要利用跨国企业的成功来推动本国经济发展和产业进步。然而,主权国家也要防止跨国企业侵蚀核心权力和削弱主导地位。在处理技术权力垄断方面,主权国家和跨国企业之间存在一定的共识。科学家共同体对于技术的发展阐释和战略规划具有垄断的地方,需要设计新的机制对其进行限制。

最后,不同主体的治理目标出现冲突。主权国家会维持过去的形式,以权力和利益为核心展开竞争与博弈,依赖国家力量来维护自身利益。而跨国企业则更注重经济利益,相较于竞争,它们更倾向于在合作中寻求利益最大化。与此同时,科学家共同体的运行具有全球化特征,以科学规则为核心标准来维持其稳定结构。这意味着在新时代国际体系中,不同层次的目标下存在多样的运行规则。这种多样性意味着各主体之间需要经过漫长的磨合才能确立稳定的权力边界,以确保整个体系的稳定和有效运行。

2.2 人工智能对国际治理权力的影响

传统国际关系理论对权力“决定论”的逻辑及对技术问题的解释力较弱。现实主义没有办法解释诸如为什么17世纪哥白尼的日心说、牛顿的物理学、开普勒定律以及制表技术都已被日本的天文学家和工匠所了解和掌握的时候,欧洲的机械钟表依然无法进入日本市场。自由主义强调技术的应用需要政治、经济的塑造,满足社会文化的需求,但是政策、规则、利益对技术的影响既不是一劳永逸,也无法立竿见影。比如,1945年日本广岛核爆炸,直到1996年世界主要国家才达成了《全面禁止核试验条约》的签署,迄今仍未生效。而作为互联网所普遍基于的技术和体系结构,TCP/IP 协议在20世纪70年代末就已经出现,但互联网对世界政治、经济的影响到20世纪90年代后期才显现出来。建构主义津津乐道的一个例子是在冷战正酣时期,美苏核物理学家仍然能通过“帕格沃什运动”保持沟通的渠道,科学家之间的相互信任和交流达成的技术认知一致性,使得两国就新的军备控制达成一致成为可能。可如今全球范围内,既没有哪两个大国有当年美苏一般近乎对等的军事实力,也没有类似古巴导弹危机、黑海撞舰等实质性危机所展示出的真切战争前景,在国际关系研究范畴中,对意图、信念的讨论最终要么只能呼吁增信释疑,要么重新回到强调规则的类似自由主义轨道,而国与国之间价值观的差异和互疑无法消除,对话与合作即便可以达成相互理解,仍与相互认可相差甚远。

现实中,人工智能技术更加稀释了技术与权力关联的因果关系。与制造业时代不同,技术投入保证特定部件产出特定产品的逻辑已完全改变,一项有深度学习能力的技术投入,可能产生另外的过程,带来无法预见的结果。人工智能前所未有的不可控、不可知,再叠加其本身固有的缺陷,使得具体产品中所应用的技术,以及技术的组合难以追回,更无法解释。人工智能技术的领域扩散将对经济发展模式产生重要影响,改变各个生产要素之间的关系,劳动力要素的重要性逐步下降,技术主体和数据主体拥有了更多的话语权,政治结构需要适应新的经济结构,因而改变了治理模式。

同时,人工智能影响的不仅仅是生产力,更是在历史发展维度上整个社会的变迁。在人工智能时代,新型认知模式会参与塑造下一代人的世界观,传统人类社会的价值观将面临重构,各种不同理念将会长期碰撞。因此治理规则的设计,不应当讨论由谁来制定,为哪个国家的利益服务,而是关注制定什么样的规则,与更广阔的世界相互沟通。

2.3 全球安全问题中的人工智能

联合国秘书长古特雷斯曾多次指出,人工智能将对人类生活的方方面面产生影响,“和平与安全”已经与人工智能的应用产生了广泛联系,人工智能安全化复杂程度不断加重。一是军民技术的边界模糊是客观存在的。基于人工智能技术原理,纯民用的技术产品可以通过大量数据训练升级算法,经过几次迭代后,新算法就存在为军品所用的可能。二是人工智能所依赖的基础设施已经成熟至商用阶段,但相应的国际技术标准尚未统一。考虑到研发阶段大量的成本投入及大规模应用后的市场收益前景,对标准的争夺是经济利益驱动的必然。三是随着全球经济数字转型的深入,“智慧政府”“数字城市”已然成为趋势,越来越多的公共服务部门成为人工智能技术产品用户。如此一来,技术在制造、设计和投入运行之前的阶段越来越依靠政治决策,而不是传统意义上等技术成为整个社会的高度依赖之后,再研究补救方案,既不经济,也过于被动。四是近年来,世界政治格局碎片化加剧,国家间相互信任逐渐下降,对微弱信号的过度解读,对所有问题包括人工智能技术的一揽子安全化倾向严重。

三、聚焦“确定的不确定”的欧美人工智能治理

3.1 欧盟的人工智能治理

3.1.1 欧盟的人工智能治理历史

2015年1月,欧盟法律事务委员会(European Parliament's Committee on Legal Affairs,JURI)成立了专门的工作小组以更好地解决机器人和人工智能发展涉及的问题。2016年5月,JURI 发布《关于机器人民事法律规则提出立法建议的报告草案》,人工智能治理开始逐步成为欧盟立法议程的一个核心议题。2017年2月,欧洲议会通过《机器人民事法律规则》。2017年5月,欧洲经济与社会委员会(European Economic and Social Committee,EESC)发布了《人工智能对(数字)单一市场、生产、消费、就业和社会的影响》,报告指出人工智能的发展将对伦理、隐私等11个领域带来的机遇和挑战。

2018年4月,欧盟委员会发布了《欧盟人工智能》(Artificial Intelligent for Europe),标志着欧盟正式提出人工智能战略。该战略提出以人为本的人工智能发展路径,在不断提升科技和产业水平的同时,人们也会面对人工智能在伦理、法律等领域带来的挑战。欧盟的人工智能战略包含3个方面:一是将人工智能融入各行各业,提升技术和产业水平;二是让教育培训体系紧跟人工智能带来社会经济变革,培养多元人才;三是建立适当的伦理和法律框架,制定人工智能伦理指南(AI Ethics Guidelines)。

2021年4月,欧盟委员会提出了《人工智能法案》,探索如何为开发和部署人工智能提供法律支持。法案旨在促进科技创新的同时保障人工智能的信任度与透明度,确保人工智能的安全和道德治理。2022年12月,欧盟理事会通过了关于《人工智能法案》的共同立场,旨在确保部署于欧盟的人工智能系统尊重现行法律。2023年6月14日,欧洲议会通过了《人工智能法案》,该法案为 ChatGPT 等生成式人工智能工具提供了更多的安全控制措施。按照立法程序,欧盟委员会、议会和成员国将就法案进行三方谈判协商,以确定最终版本的法案。作为全球范围内首部系统化规制人工智能的法案,该法案有望成为全球范围内人工智能法律监管的重要参考。

3.1.2 欧盟的人工智能伦理框架

为促进与规范人工智能的技术创新与应用,人工智能伦理框架是其治理的重点领域。2019年4月,欧盟发布了重要文件《可信AI伦理指南》(Ethics Guidelines for Trustworthy AI),进一步促进了人工智能战略的落实。《可信AI伦理指南》中对可信人工智能给出了3个必要特征:合法性、符合伦理、稳健性;4项伦理原则:尊重人类自主性原则、防止损害原则、公平原则、可解释原则。该框架还提出了7项可以落地的关键要求。总而言之,该框架认为AI治理是一项系统性工程,因此为公司等其他组织提供了AI的评估清单,确保各个组织的各个部门协同参与到AI的治理过程中。

3.1.3 欧盟算法治理思路

2019年4月,欧盟发布了《算法责任与透明 治 理 框 架》(A Governance Framework for Algorithmic Accountability and Transparency),进一步促进了人工智能战略的落实。《算法责任与透明治理框架》使用现实案例,阐明了不公平算法的生成原因和潜在后果。在公平性的目标下,该报告提出以算法透明和问责制两大工具实现算法公平。同时该报告强调了负责任研究与创新在促进实现算法公平中的作用和意义。在对既有案例梳理和技术问题的分析上,该报告提出了4个治理层次的建议:提升公众算法意识和素养、建立算法影响评估机制、建立监管机制和法律制度、实现全球协调治理。

3.2 美国的人工智能治理

3.2.1 美国的人工智能治理历史

2016年10月,奥巴马政府发布了《人工智能战略计划》(AI Strategic Plan),提出人工智能对解放企业和工人、改善生活品质、提升国土安全等的积极影响。

2019年2月,为维持在人工智能领域的领导地位,美国时任总统特朗普签署了第13859号行政命令,将人工智能的发展上升为美国的国家级战略,同时对外发布“美国人工智能倡议”。2020年1月,美国白宫科技政策办公室(Office of Science and Technology Policy,OSTP)发布了《人工智能应用监管指南》(Guidance for Regulation of Artificial Intelligence Applications),标志着美国联邦政府首次步入人工智能监管领域。指南建议在法规效益不足以弥补成本时使用非监管方式。为了促进人工智能的发展,指南鼓励行政机构与私营部门合作,同时鼓励行政机构公布更多联邦数据供公众使用。OSTP 在该文件中提议监管的10项指引原则,包括公众信任AI、公众参与、科学诚信和信息质量、风险评估和管理、收益与成本、灵活性、公平与非歧视、披露和透明、安全以及跨机构合作。

2021年1月,美国正式颁布《2020年国家人工智能倡议法案》,旨在确保美国在全球AI技术领域保持领先地位,将美国人工智能计划编入《2020国防授权法案》,保障增加研究投入、获取计算和数据资源、设置技术标准、建立劳动力系统及与盟友展开合作。这标志着美国政府最终完成人工智能战略部署及政策设计。

2022年10月,拜登政府发布《人工智能权利法案蓝图》,希望能刺激企业更负责任地打造和部署人工智能,并对基于人工智能的监控进行限制。该文件旨在通过“赋予美国各地的个人、公司和政策制定者权力,并响应拜登总统的呼吁,让大型科技公司承担责任”,以“设计、使用和部署自动化系统的5项原则,从而在人工智能时代保护美国公众”。这5项原则包括:安全有效的系统、算法歧视保护、数据隐私、通知和解释,以及人工替代、考虑和回退。该文件的出台将从科技、经济及军事等方面为美国人工智能发展提供指引。

3.2.2 设立专项组织统筹协调人工智能治理

2018年,特朗普政府分别于5月和8月相继成立了人工智能特别委员会(Select Committee on Artificial Intelligence,SCAI)、人工智能国家安全委员会(The National Security Commission on Artificial Intelligence,NSCAI)等一系列专项技术管理组织。其中,人工智能特别委员会由国家科学技术委员会和美国科技政策办公室负责管理。该委员会的主要任务是促进政府、业界和学界之间的合作关系,向白宫提供关于人工智能跨机构研究合作的建议,为加速推进人工智能发展奠定基础。人工智能国家委员会由美国国家科学与技术委员会负责管理。该委员会是美国政府人工智能建设与治理体系的重要部分,委员会从顶层统筹设计美国人工智能的发展,对人工智能相关技术进行审查,从而更好地维护美国的国家安全与发展。

为了人工智能国家战略顺利部署,2021年1月,美联邦政府成立了专门的国家人工智能倡议办公室,负责监督和实施国家人工智能战略。2021年6月,OSTP 和国家科学基金会(National Science Foundation,NSF)成立了国家人工智能研究资源工作组,负责制定人工智能关键资源的扩大和教育路线图,为科研人员和学术提供计算资源、数据和工具。

为在更多领域有效地研发部署人工智能,各联邦部门也均成立了专门的人工智能管理机构。美国国防部在2020年成立了联合人工智能中心。2021年,美国国防部又将下属的联合人工智能中心与数字服务局、首席数据官办公室进行合并,对3个办公室进行统筹管理。此外,美国总务管理局于2020年建立了人工智能卓越中心,确保人工智能运用于政府运作过程中。美国能源部于2020年建立了人工智能和技术办公室,协调部门内部人工智能活动 [23]。美国商务部于2022年设立国家人工智能咨询委员会,为人工智能相关问题提供建议。2023年6月,美国商务部宣布将再设立一个新的人工智能工作组,进一步解决人工智能发展带来的问题。

3.3 欧美人工智能治理比较

欧盟和美国的治理主体均为多方参与、相互协同。治理模式上,欧盟更为强调行政主导作用,重视规则主导和风险防范;而美国更为强调市场化,注重创新和公私合作。

在欧盟,政府机构在人工智能治理中扮演着主导角色,并强调与其他主体协同治理。数据方面,欧盟注重公民数字人权的保护,并努力构建可信的人工智能系统,更倾向于采取预防性的规制手段。算法方面,欧盟引入了标准化的披露准则,要求算法相关主体主动披露算法的逻辑、目标、潜在后果等。私营部门在进行技术研发和创新的过程中要考量技术后果和伦理问题,以实现负责任的创新。此外,欧盟也注重提高公众对算法的理解和素养,营造了算法问责的氛围,建立了保护制度支持发现和提出算法的漏洞与问题。

在美国,除了政府、企业,还包括行业组织、第三方机构等主体参与到算法治理过程中。美国倾向于利用不同主体的力量共同参与算法治理。政府在行政干预方面较弱,非政府组织如第三方智库、行业组织和社会公众发挥了重要作用。此外,行业自律也是美国算法治理的一部分,如亚马逊、谷歌、脸书等公司于2016年成立了人工智能合作组织,帮助群众理解算法知识的同时制定行为准则。

尽管存在上述差异,无论是欧盟聚焦政府主导,以高标准的法律和规制政策为手段,还是美国有意地采用政府指导原则下,各部门、各领域宽泛的监管办法,而非具有惩罚措施的法律来引导技术发展,都是为了管理好预见到的问题,也就是“确定的不确定”因素,从而将潜在结果往自身控制和预期的方向发展。

四、我国人工智能治理现状与展望

4.1 我国人工智能治理现状

人工智能的发展情况与治理模式息息相关,我国的人工智能治理模式采取要素治理方式,同步推进总体价值、数据、算法等通用性规则构建,而未选择制定类似欧盟“人工智能统一规则”的专门综合立法 。

我国高度重视人工智能治理,不断推进总体价值的探索。自2016年起,人工智能伦理就已经成为众多社会组织、专业机构广泛讨论的对象。2019年,国家科技伦理委员会和国家新一代人工智能治理专业委员会成立,《新一代人工智能治理原则——发展负责任的人工智能》也随之发布,提出了人工智能的治理框架和指南。2021年,我国进一步出台《关于加强科技伦理治理的指导意见》和《新一代人工智能伦理规范》,标志着我国已初步形成人工智能治理的总体价值指引。

在数据方面,我国于2021年颁布实施了《数据安全法》和《个人信息保护法》,标志着我国的数据安全与保护进入新阶段。这两部法律与之前颁布的《网络安全法》,共同规范了网络设施的建设、运营、维护和使用,构建了数据安全与个人信息保护的整体制度。一些地方如深圳、上海也在积极尝试采取促进发展和安全并重的方案,出台了相应的地方性数据管理条例,为完善数据治理制度进行有益探索。

在算法方面,近年来,社会数字经济中的一些问题引发了对互联网消费者权益和劳动力就业竞争等问题的反思,其中包括电商的差异化定价和外卖骑手配送时间被不合理压缩等情况尤为显著,这些问题往往被归咎于算法的应用。算法治理因此备受关注,因为算法主体在最大化自身利益的过程中,违背了维护公平公正、促进共同富裕、提高社会福祉等价值观,将歧视和不公融入日常的社会活动之中。我国的算法治理现在仍存在碎片化的情况。2021年,我国发布了《关于加强互联网信息服务算法综合治理的指导意见》(以下简称《指导意见》),明确了政策方向,从以往的分散治理逐步转变为综合治理。《指导意见》提出,应使用3年左右的时间,逐步建立治理机制,健全监管体系,规范算法生态,最终达到构建算法安全综合治理格局的目标。这一举措旨在应对算法带来的风险和挑战,推动算法应用更加负责任和可持续发展。

4.2 我国人工智能治理的发展路径

4.2.1 打造多方参与、协同共治的治理模式

人工智能治理是一项需要多方合力的工程,参与治理的主体呈现多元化,运用的治理手段呈现多样化。治理过程需要政府、企业等多利益相关方的参与合作,发挥各自的职责和能力,通过协同共治的方式实施。政府在治理中发挥领导性作用,负责制定政策法规、设立专门机构以执行治理规定。政府应该积极参与并协调各方的合作,确保治理目标的实现。市场参与者,如企业、行业组织等,应该发挥重要推动作用。他们可以制定行业准则、技术标准等,推动规范的制定和实施。公众包括独立学者、消费者、社会组织等,他们是治理过程中重要的参与者和监督者。各方应明确自己的角色和责任,共同努力解决治理中的问题和挑战。

4.2.2 进一步对人工智能进行伦理规范,确保可持续发展

人工智能治理应该建立在对人工智能的价值观思考的基础上。为了有效应对人工智能所带来的风险和挑战,制定伦理原则是重要的一步,它可以将人工智能“不确定的不确定性”转化为确定,从而帮助政府、企业、公众履行各种监管或治理职责。这些原则可以涵盖对人权、公平性、透明度、隐私权和安全性等价值的尊重。人工智能的训练须尊重隐私权,保护用户的个人数据安全,并确保适当的数据收集、使用和共享机制。个人信息应得到合法、透明的处理,并遵守相关法律法规和隐私保护原则。人工智能系统的决策过程应该是透明的,并提供解释其决策的机制,这有助于用户理解和信任系统,并帮助检测和纠正可能存在的偏见或不公正,确保人工智能系统在处理数据和做出决策时没有偏见或歧视。系统应避免基于种族、性别、宗教、国籍等特征对个人进行不公平对待,并促进平等和包容的社会价值观。相关主体应评估和管理人工智能系统对社会、经济和环境的影响,以最大限度推动可持续发展和社会福祉。

4.2.3 鼓励发展人工智能,特别是我国的跨国科技企业

政府应该出台一系列支持政策,包括资金支持、税收优惠、研发补助等,为有关的科技企业提供良好的创新环境,从而更好地应对人工智能“不确定的不确定性”,并将其中成熟的部分转为“确定的不确定性”,甚至是消除不确定性。鼓励企业加大研发投入、技术创新和人才引进。建立创新型科研机构和高水平实验室,提供世界一流的科研设施和平台,吸引跨国科技企业在我国进行前沿技术研发。政府可以与企业合作,共同投资建设科研基地,为企业提供优质的科研资源和技术支持。积极参与国际合作项目,与其他国家和地区的跨国科技企业进行合作与交流。

4.2.4 积极参与国际人工智能技术标准的制定

在人工智能的研发和应用中,我们必须始终坚持道德和伦理的准则,确保人工智能系统的设计和使用符合社会和人类的利益,避免滥用人工智能技术进行网络攻击、隐私侵犯、歧视性应用等不良行为。为此,我们需要加强法律法规的制定和执行,以确保人工智能的使用是正当和合法的。

中国应该在人工智能领域发挥领导作用,推动全球统一的人工智能标准的制定工作。这些标准应该有利于中国和广大发展中国家,确保人工智能的发展具有包容性、可持续性和公正性。作为发展中国家的代表,中国应该以“一带一路”倡议为平台,积极支持发展中国家在人工智能领域的发展。我们可以提供技术援助和教育支持,帮助发展中国家应对人工智能时代的挑战,缩小数字、技术和财富鸿沟。

此外,中国还应在国际社会积极推动人工智能领域的合作和交流,为发展中国家争取更多的援助和支持。通过合作共赢的方式,促进全球范围内人工智能的公平发展和利益共享。

五、结  语

人工智能的不确定性涵盖了多个方面,其国际治理也将面临许多不确定的因素和影响。现有讨论多数停留在针对人工智能技术不确定的层面,侧重数据安全与保护、算法综合治理及道德和伦理规范。未来随着人工智能在国际社会中的不断渗透,其对国际治理的主体和权力,对国际安全的基本认知会产生何种影响,进而如何决定社会发展变迁的方向和成果都是亟待解决的问题。未来深不可测,审慎的态度、理智的展望和灵活应变的治理视野有助于我们更好地理解和应对各种变化、风险,国际社会应积极推动超越技术不确定性的人工智能治理合作和交流。

本文刊载于《信息安全与通信保密》2023年第8期(为便于排版,已省去原文参考文献)


上一篇:人工智能、数字权力与大国博弈

下一篇:姚锦祥:国际社会期待倾听更多中国声音