即时新闻

全球善智与全球合智:人工智能全球治理的未来

2019年09月11日 来源:紫金智库
分享到微信
打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。

1引 言

随着全球化进程的日益深入,加强全球治理逐渐成为国际社会中大多数国家的共识,然而全球治理目前也面临着一些结构性困境。这些困境在宏观上可以归为如下几类:第一类是发展性问题,即因发展中国家的不发达而导致的问题。当下的一些主要全球性问题诸如人口爆炸、传染病流行等都属于此类,跨国犯罪、国际恐怖主义等全球性问题的根源也与之密切相关。第二类是霸权性问题,即发达国家滥用其在全球秩序中的权力,恶化了不发达国家的发展性问题,或者不愿在国际机制中通过自我约束来推动全球性机制的发展。全球性机制的形成需要相关国家都做出让步,但是当前发达国家在多数条件都显著优于发展中国家的情况下,依然不愿在气候、贸易和“南北”等问题上做出让步。第三类是综合性问题,即发展中国家自身的不发达与某些发达国家滥用权力特别是武力而共同导致的复杂问题。地区性冲突就主要属于这一类。

这些问题长期得不到解决、积重难返,会导致全球治理危机。目前,仍然由主权国家主导的全球治理机制存在如下两个特征:

第一,霸权逻辑。当前,以美国为中心的西方发达国家仍然主导着全球治理进程。它们的目标往往是维护自身在整个世界中的优势地位 (特别是在金融和科技领域) 。因此,西方发达国家会利用此前形成的诸多有利机制来保持这种竞争优势,这是导致非西方世界长期贫困的重要原因。近年来,一些新兴的发展中国家在取得了较大发展的同时,也有意在国际社会中扮演更重要的角色,推动现有全球治理体系的改革,但是这些积极行动遭到了西方发达国家的漠视甚至抵制。近年来,西方国家中出现的一些反全球化现象正是这种霸权治理逻辑的体现。当西方国家能够在全球化进程中获得巨大利益的时候,它们就会积极推动这一进程。而当越来越多的发展中国家加入这一进程并慢慢进入某些中心领域时,一些发达国家便会采取措施反对或者阻止全球化的进一步发展。

第二,冲突逻辑。当前,全球治理领域中长期存在的结构性问题与西方国家主流文化中的冲突性思维有密切关系。这种冲突性思维源自基督教文化中的人性恶假设,其往往把行为体之间的关系看成是相互冲突的。例如,现实主义是西方国际关系理论中最重要的理论流派,是冲突价值观的典型代表。尽管西方社会在许多方面已经表现出一定程度的世俗化,但是基督教文化仍然是其最重要的思想内核。作为一神教,基督教教义默示着异教徒只有皈依基督教,才会得到基督教社会的真正认同。因此,其他保持自身独特性的文明往往会被基督教文明视为另类。这使得基督教文明很难从心理上接受和认同其他文明。这就是西方发达国家很难接受发展中国家的文化根源。从某种意义上说,西方发达国家所代表的基督教文明在思想根源上不能接受和容忍其他文明的进步和发展,这是世界范围内的贫困问题和地区冲突长期存在的重要思想文化背景。另外,在全球化的背景下,西方世界中外来人口的大量涌入又加剧了不同文化之间的冲突。而非西方世界的外来人口之所以无法真正融入西方社会,追根溯源也是文化差异所导致的。这种冲突逻辑本质上是一种排他性逻辑或独占性逻辑。

霸权逻辑和冲突逻辑集中地体现在西方国家学者关于全球治理的论述之中。例如,马修·斯蒂芬 (Matthew Stephen) 就认为,新兴国家的崛起对全球治理的影响可以总结为六点:第一,全球治理将继续存在,但国家间竞争日益激烈。第二,关于全球治理的领导权争夺将变得更加突出。第三,全球治理中的自由社会目标正在“退居二线”。第四,现有的多边机构内部正面临日益严重的机制僵局。第五,非正式化特征正在逐渐增强。第六,全球治理正日益碎片化。斯蒂芬的后三个判断基本是正确的,看到了全球治理目前面临的问题。然而,这三个问题并不是由于新兴国家的崛起而产生的,而是源自传统的全球治理体系自身所蕴含的矛盾。前三个判断具有强烈的霸权和冲突逻辑的特征。第一条和第二条都将全球治理中新兴国家与守成国家的关系看成是零和博弈。第三条则隐含了对西方国家意识形态影响力下降的一种惋惜。

本文讨论的核心问题是,目前的全球治理困境所反映的两大逻辑是否会因为正在兴起的智能革命而有所变化。人类社会正在经历第四次工业革命。第一次工业革命起始于18世纪60年代,以蒸汽机革命为中心,主要定义者是英国。第二次工业革命发端于19世纪60年代,以电气革命和内燃机革命为中心,主要定义者是德国和美国。第三次工业革命起始于20世纪40年代,以计算机和信息革命为中心,主要定义者是美国。目前正在发生的是第四次工业革命,多数研究认为其引领性技术是人工智能,因此这次革命也被称为智能革命。

第四次工业革命是在第三次工业革命的基础上产生的。人工智能发展所依赖的算力、算法和数据等都建立在信息技术的基础上。从某种意义上说,人工智能也被视为信息技术的新发展和新阶段。最初,人工智能也是作为计算机或自动化等信息科学大类下的分支学科出现的。第四次工业革命还与物联网、虚拟现实、区块链等其他一些技术密切关联。之所以称为智能革命,是因为人工智能对社会中的各个领域都产生了巨大影响。例如,人工智能深刻改变了交通、医疗、教育、法律、金融、传媒等诸多领域。接下来,本文将尝试讨论人工智能的发展会对霸权逻辑和冲突逻辑产生何种影响。

2人工智能发展对国际权力结构的影响

人工智能的发展会对国际权力结构带来哪些变化?就可以观察到的事实而言,主要有如下特征:

第一,美国在人工智能领域的超强实力非常明显,其他西方发达国家与美国的差距在不断拉大。由于智能革命是信息技术革命的延伸,所以美国在竞争中具有明显优势。美国的超强实力主要表现为:第一,在智能计算硬件上领先的企业几乎都是美国企业。英伟达因为其图形处理器 (GPU) 在人工智能计算中的优势而增强了自身的影响力,英特尔也在充分布局人工智能芯片,高通在智能手机芯片方面拥有优势,而谷歌则在开发张量处理单元 (TPU) 等智能专用芯片。第二,美国企业和高校在人工智能算法框架及其生态方面非常强势。人工智能最为流行的算法框架如谷歌的TensorFlow、IBM的SystemML、加州大学伯克利分校的Caffe、脸书的Torch等几乎都是由美国公司或研究机构主导。第三,在具体的应用场景中,美国企业也具有明显的优势。在自动驾驶领域,谷歌的Waymo和特斯拉都是最为领先的企业。在特种机器人领域,波士顿动力的技术也处于领先地位。第四,美国在某些领域的原发性创新方面也拥有优势。例如,特斯拉公司的首席执行官埃隆·马斯克 (Elon Musk) 和PayPal创始人彼得·泰尔 (Peter Thiel) 等硅谷巨头支持的OpenAI正在从事一些颠覆性研究,包括制造“通用”机器人和使用自然语言的聊天机器人。美国依靠超强实力与其他西方发达国家拉开了差距。尽管德国、日本等国也是传统工业强国,但是在人工智能领域与美国的差距相当显著。另外,在传统发达国家中,英国、加拿大、以色列国等在人工智能领域也有较好基础,但都与美国差距较大。

第二,尽管近年来中国在人工智能领域发展迅速,但不确定性仍然较为显著。在人工智能领域,中国是新入场者。近年来,中国人工智能发展迅速,原因包括:其一,中国在信息科技领域的基础扎实。中国在过去的20多年中赶上了移动互联网的发展浪潮,与发达国家的差距越来越小。在2G到3G的发展过程中,美国的高通是绝对的主导者。在3G到4G的过程中,中国就成为“游戏规则”的制定者之一。中国主导的TD-LTE标准在4G中占有重要地位。同时,中国的品牌手机企业如华为、OPPO、vivo、小米等迅速发展,逐渐与苹果、三星等巨头分庭抗礼。到5G落地时,中国将基本与发达国家同步,甚至在某些技术方面还略为领先。其二,国家战略的积极引导。国务院于2017年7月印发了《新一代人工智能发展规划》,之后工业和信息化部在2017年12月印发《促进新一代人工智能产业发展三年行动计划 (2018—2020年) 》,教育部则在2018年4月印发《高等学校人工智能创新行动计划》。为保障这一系列国家战略的落地和实施,各省市自治区也制订了相关的推进计划。此外,中央政治局在2018年10月就人工智能的发展现状和趋势进行了集体学习,这会对人工智能的下一步发展也形成重要推动力。其三,中国的庞大市场和整齐的消费群体为人工智能的落地奠定了基础。中国人口数量多,信息化程度高,产生了巨大的数据量,这些都是人工智能在各商业场景中快速落地的基础。其四,中国近年来的经济起飞使得民间资本活跃,人工智能领域的投资快速增长。

近年来,中国在人工智能领域产出的成果增长很快。根据清华大学发布的《中国人工智能发展报告2018》,中国在该领域的论文总量和高被引论文数量上都排在世界第一。在人工智能的专利数量上,中国也略微领先于美国和日本。在人工智能领域,目前中国的最大特点是可以将前沿应用较快地转化为产品,主要集中在视觉识别、语音识别等应用领域。例如,在视觉识别技术的基础上,海康威视、大华等企业快速成长为全球规模和技术领先的智能安防企业。在芯片领域,一些应用性芯片有长足进步,如华为海思的麒麟系列、寒武纪的NPU、地平线的BPU和阿里达摩院正在研发中的Ali-NPU等。当然,中国还有一些明显不足。例如,在智能基础芯片、算法框架和生态等方面还有较大欠缺,在一些基础理论和原生创新方面也存在不小差距。

第三,发达国家特别是美国希望锁定其在人工智能领域相对于发展中国家的技术优势。在技术进步的问题上,发达国家力图通过各种机制来维持技术优势,这在很大程度上导致许多发展中国家只能发展相对低端的产业,当地劳动者只能从事低价值产出的工作。这些低端产业的附加值非常低,所以发展中国家的劳动者尽管付出了较多劳动,但是却依然贫困。长此以往,发展中国家就会陷入恶性循环:由于本国的经济水平较低,就无法提高国民的教育水平,进而无法提高前沿科学技术的研发能力,也就很难出现支撑整个国家的有影响力的产业和企业。这样一来,发展中国家就陷入了不发展的怪圈和循环。要解决全球治理中最为根本的发展问题,最重要的措施应当是提高这些国家的技术水平。

然而,关键问题是西方发达国家并不愿意将人工智能等前沿技术转让给发展中国家。当发展中国家中的新兴国家在某些前沿领域取得突破性进展时,西方发达国家还会利用外商投资审查、出口控制、限制科技和人员交流等方式妨碍新兴国家的科技进步。发达国家希望把先进技术长期控制在自己手中,通过阻碍技术扩散实现主导新一轮科技革命的目的。从根本上讲,西方发达国家仍然没有摆脱传统的帝国主义和殖民主义的思维。西方发达国家的传统殖民方式是地理殖民。随着第二次世界大战之后民族解放运动的发展,地理殖民的可能性越来越小,技术殖民开始成为主要的替代形式。西方国家通过对专利技术的控制阻止发展中国家进入许多技术领域,从而“冻结”发达国家和发展中国家之间的技术差距。从这个角度来说,专利制度很大程度上是为技术霸权服务。超级大公司不断通过兼并来获得专利,通过诉讼击败对手,这有利于西方国家的霸权战略。在人工智能时代,超级大公司对核心技术的垄断会更加突出。

第四,在某些领域,智能革命对发展中国家可能有赋能效果,但整体来看,发展中国家与发达国家的差距可能进一步拉大。一方面,开源软件和新型学习方式有助于发展中国家的人才培养。现阶段,在与人工智能相关的许多工业领域,技术都是开源的。开源意味着后来者可以较为便捷地使用前人的研究成果,从而大大缩短追赶时间。在人工智能时代,高水平的教育资源的稀缺性会不断降低,人们获取知识的方式将更加便捷。例如,将直播技术和短视频技术用于知识学习,会产生非常好的效果。现在已经有一些教育产品正在投入使用,例如学而思网校。如果发展中国家的民众可以充分发挥人工智能的技术潜能,通过技术手段赋能学习,提高国家的整体教育水平和国民素养,就可能为经济发展打下扎实的人才基础。发展中国家可以在人工智能技术的赋能下,通过提高国民的教育水平,逐步提升国内治理能力,最终摆脱贫困状态。

同时,智能革命的制度化还有助于发展中国家克服传统文化的束缚。人工智能的相关技术有助于一些传统问题的解决。汉斯·汉森 (Hans Hansen) 和托尼·波特 (Tony Porter) 的研究指出,在埃博拉出血热等疾病的防治过程中,手机和大数据技术堪称关键。手机有助于人们发送与协调相关的工作信息,而对呼叫数据记录的分析有助于流行病学家追踪疾病的传播。将基于人工智能的解决方案引入发展中国家,可以在很大程度上减少传统人为因素的干扰。人工智能可以克服人类智能对情感因素的过度倚重,可以帮助传统社会向法理型社会转型。发展中国家的落后在很大程度上是文化的落后,而人工智能的机器理性有助于对冲传统文化的影响。例如,许多发展中国家都受到腐败问题的困扰。如果通过信息系统、电子化支付或移动支付等手段,将所有的交易记录下来,那么传统的腐败机会就会大为减少。当然,在这种制度化的过程中,发展中国家需要在国外经验与自身文化之间寻求平衡。

另一方面,智能时代的来临可能会导致国际分工的终结,从而使得发达国家和发展中国家的差距进一步拉大。首先,国际分工的基础是劳动分工。不同国家拥有不同的资源禀赋,发达国家拥有先进技术,但是缺乏劳动力,而发展中国家恰恰可以提供充足的廉价劳动力。因此,发展中国家获得了参与国际分工的机会,并借此取得了劳动力素质提高等基础性资源,再通过技能外溢和技术升级,进一步从整体上提高国家实力和劳动力素质。然而,人工智能的发展却很可能摧毁这一分工基础。发达国家逐渐意识到,使用机器人的成本在很大程度上低于维持人力资源的成本。在一些发展中国家,劳动力的成本最初非常低廉,但是在全球化的进程中,随着这些发展中国家劳工标准和福利水平的提升,劳动力成本也会随之上升。相较而言,人工智能的成本更加可控。机器在某种程度上削弱甚至排除了发展中国家参与国际分工的可能。显而易见,如果未来人工智能技术发展到较高水平,发展中国家在国际分工中承担的劳动密集型分工可能会被逐渐替代,很难再参与到先前的国际分工之中。正如埃里克·布莱恩约弗森 (Erik Brynjolfsson) 和安德鲁·麦卡菲 (Andrew McAfee) 概括的那样:“从长期来看,自动化影响最多的可能不是美国和其他发达国家的劳动者,而是以低成本劳动力作为竞争优势的发展中国家。”

发展中国家停止参与国际分工会进一步拉大南北国家之间的技术鸿沟。发达国家在人工智能等新技术上构筑的壁垒会越来越高,不发达国家通过参与和学习进入“中心地带”的可能性也会越来越小。大数据的有限入口产生了新的数据鸿沟,而大型数据公司对数据则拥有绝对的垄断性权力。大数据依靠技术在全球运营,以新的方式遮蔽和混淆权力。随着国际事务中大数据的实际影响不断扩大,必须采取有效的方式来应对权力关系的变化。实际上,人工智能发展导致的新的不平等可以理解为人工智能的异化。卡尔·马克思 (Carl Marx) 认为,科学技术出现了异化,其根源是“机器的资本主义应用”。马克思强调:“同机器的资本主义应用不可分离的矛盾和对抗是不存在的,因为这些矛盾和对抗不是从机器本身产生的,而是从机器的资本主义应用产生的!”人工智能异化造成的不平等不仅会出现在资本主义社会内部,还会外溢到国际分工体系之中。因此,尽管发展中国家可以得到人工智能发展的一些技术红利和后发优势,但是由于人工智能本身是高端前沿技术,而发展中国家缺乏足够的人才储备,其与发达国家的差距可能会越来越大。

3西方主导的人工智能全球观念结构

目前,全球人工智能相关的法律法规、政策和原则主要是由西方发达国家定义的。发展中国家的话语权非常微弱,甚至无法参与相关讨论。例如,西方发达国家的一些大公司在规则定义上就具有主导权。“阿西洛马人工智能23条原则” (以下简称阿西洛马原则) 是近年来最具影响力的人工智能原则。尽管阿西洛马原则声称其是由近千名人工智能与机器人领域的专家联合签署,但细究之下便会发现,这一原则的主要推动者仍然是马斯克这样来自西方国家的企业家。阿西洛马原则的一些宏观内容是基本正确的。例如,“研究目标”强调“有益的智能”,第6条强调“人工智能系统的安全性”,第7条强调“故障的透明性”,第8条强调“审判的透明性”,第11条强调“人类价值观”,第14条强调“共享利益”,第15条强调“共享繁荣”,这些都是普遍认可的原则共识。

但是,阿西洛马原则仍然存在一些问题。

其一,该原则暗含了发展通用人工智能甚至是超 (高) 级人工智能的目标。在该原则的第9条和第10条中,都强调了“高级人工智能和高度自主的人工智能系统是可以被设计的”。第16条尽管强调“人类应该选择如何以及是否代表人工智能做出决策以实现人为目标”,但是这种表述也暗含了可以让人工智能自主决策的可能性。此外,第17条强调“不能终止或颠覆高级人工智能的权利”,第19条则强调“不能给未来人工智能的性能发展设置上限”,第20条强调“高级人工智能可以反映地球生命历史的深奥变化,应该予以支持”。这里的通用人工智能 (general AI) 是相对于专用人工智能而言的。专用人工智能也被称为模块化人工智能 (modular AI) ,其在特定领域拥有专业知识,能够通过实践学习提高性能。相比之下,通用人工智能可以更灵活地运用自身知识来处理一系列更为抽象、没有领域限制的问题,包括那些需要理解意义和价值的问题。

简言之,专用人工智能是局限在某一领域的人工智能,通用人工智能则是指力图在整体上具备类似于人的综合问题解决能力的人工智能。人们往往把通用人工智能称为强人工智能,而通用人工智能的下一个发展阶段便是超 (高) 级人工智能。如果说通用人工智能的目标是等同于人,超 (高) 级人工智能的目标就是培养超过人类智能的人工智能。牛津大学的尼克·波斯特罗姆 (Nick Bostrom) 将超级智能定义为:“在几乎所有领域远远超过人类的认知能力。”波斯特罗姆还将超级智能分为如下几类:高速超级智能,该系统可以完成人类智能可以完成的所有事务,但是速度更为迅速;集体超级智能,该系统由数目庞大的小型智能组成,在很多领域的整体性能都会显著超越现有的认知系统;素质超级智能,其速度与人脑相当,但在聪明程度上相比人类具有巨大的、质的超越。许多专家对超级人工智能的发展表现出担忧。例如,有观点认为人工智能的成功可能意味着人类的终结。在“错误的手”中,任何技术都有造成伤害的潜在可能性。对于人工智能和机器人技术来说,新问题是“错误的手”可能就是技术本身。

其二,对于人工智能的潜在风险,阿西洛马原则主张自我修复。第21条和第22条涉及未来人工智能造成的风险。其认为,人工智能可以承担自身发展带来的风险,可以通过递归的自我改进和自我复制来加以控制和完善。简言之,这两条原则反对人类通过外在干预来控制和调整人工智能的发展。在西方国家的人工智能发展过程中,弥漫着一种工程师决定论的思维。正如约翰·马尔科夫 (John Markoff) 所描述的那样:“今天,设计基于人工智能的程序和机器人的工程师们,将会对我们使用程序和机器人的方式产生巨大影响。”

其三,阿西洛马原则并未就如何行动给出详细方案和路径,这将导致原则可能在实践过程中变形。第18条尽管提出了“应该避免一个使用致命性自主武器的军备竞赛”,但是并未给出实现路径。缺乏明确路径将导致这一原则沦为空谈。另外,第11条强调“人类的价值观”,即人工智能系统的设计和运作应该符合维护人类尊严、权利自由和文化多样性的理念。但是在实际操作中,由于人工智能的系统设计以及话语权都掌握在少数发达国家手中,因此其中蕴含的价值观很有可能是少数发达国家的主流价值观,而不是人类整体的多样性价值观。类似问题同样存在于第14条、第15条和第23条中。当涉及共同利益、共享繁荣等内容时,就会出现宏观原则与实际操作之间的问题。

在阿西洛马原则之外,谷歌在2018年发布了人工智能原则,其内容包括: (1) 对社会有益; (2) 避免制造或加强不公平的偏见; (3) 确保并测试安全性; (4) 对人负责; (5) 纳入隐私设计原则; (6) 坚持科学的卓越标准; (7) 提供符合这些原则的用途。英国上议院特别委员会在2018年4月发布了人工智能代码五项原则,内容包括: (1) 人工智能的开发应该是为了人类的共同利益; (2) 人工智能应该遵循可理解性和公平性原则; (3) 人工智能不应该被用来削弱个人、家庭或社区的数据权利或隐私; (4) 所有公民都应该有权接受教育使他们能够在精神、情感和经济上与人工智能并驾齐驱; (5) 永远不应赋予人工智能伤害、摧毁或欺骗人类的自主权力。其中,第五条尽管看起来是在保护人类,但实际上从另一个角度确认了人工智能的自主性。欧盟在2019年发布了人工智能伦理指导方针,包括七点原则:人类代理和监督、技术稳健性和安全性、隐私和数据管理、透明度、多样性、环境和社会福祉以及问责制。比较而言,欧盟人工智能伦理指导方针的进步性在于其强调:“人工智能不应该践踏人类的自主性。人们不应该被人工智能系统操纵或胁迫,应该能够干预或监督软件所做的每一个决定。”然而,这仍然是一个被动原则。在某种程度上反而确认了人工智能系统的自主性。

表1 西方国家重要人工智能伦理原则比较

资料来源:笔者自制。

从更深层次来看,伦理规范是现实政策、法律与其他相关原则的基础,而目前人工智能领域最具影响力的伦理规范是由西方国家和社会主导定义的。其中最典型的代表是美国科幻小说代表人物艾萨克·阿西莫夫 (Isaac Asimov) 提出的“机器人三法则” (下文简称为阿西莫夫三法则) 。这一法则尽管由阿西莫夫在科幻小说中提出,但是前述原则几乎都可以视为这一法则的进一步适用或延伸。阿西莫夫三法则的内容是:第一法则,机器人不得伤害人类,或坐视人类受到伤害;第二法则,除非违背第一法则,否则机器人必须服从人类命令;第三法则,除非违背第一或第二法则,否则机器人必须保护自己。

阿西莫夫三法则本身是非常矛盾的。第一法则强调机器人的主体性。其强调“机器人不得伤害人类或坐视人类受到伤害”,这意味着把机器人当成独特的法律或者伦理主体。但是,第二法则要求“机器人必须服从人类的命令”,抹杀了机器人的主体性。第三法则反过来强调“机器人必须保护自己”,又重新赋予机器人主体地位。因此,阿西莫夫三法则本身在机器人的主体性问题上是非常模糊甚至相互矛盾的。这种矛盾可以在西方基督教文化中找到解释。在基督教文化中,神是“大写”的,人是“小写”的。只是在近代启蒙运动的发展过程中,人才逐渐被“大写”,即具有主体地位。此外,基督教文化认为人是有原罪的,其主体性地位是不合理或者不能长久的。在西方文化的世界和逻辑中,存在一种隐喻,那就是人的主体地位终将在某一天被剥夺。因此,在西方人的观念中,更容易接受机器人的主体性。从西方悲观的世界观出发,很多学者可以接受机器人取代人类的结果。西方学者的思路基本上支持完全的自主智能体,或者认为这种趋势不可避免。因此在伦理学上,许多西方学者都主张实现自主的道德智能体。例如,印第安纳大学的伦理学教授科林·艾伦 (Colin Allen) 等人就认为,随着人工智能越来越接近完全自主智能体的标准,如何设计和实现人工道德智能体 (artificial moral agent) 的问题变得越来越紧迫。艾伦等人希望这样的人工道德智能体可以通过“道德图灵测试 (moral Turing test) ”。总之,西方学者过高地预设了智能体的自主性。此外,这里的道德由谁来定义?如何将道德量化并交给机器来决策?这些都是理论难题。对于道德这样的命题,人类社会都很难达成共识,那么如何交给机器来决策?

阿西莫夫第一法则的内容是机器人不得伤害人类或坐视人类受到伤害。其中潜在的含义是,机器人具有自身的主体性。如果不承认机器人的主体性,那么这一法则的表达应改为“机器人不得被用于伤害人类”。如果给予机器人过多的决策权,或者说将主体性赋予机器人,便会产生责任推卸或责任缺失的问题。具体而言,如果机器人具备某种主体性,那么当机器人伤害到人类时,人类就会主张应当由机器人承担相应的惩罚。然而,机器人本身并不理解人类世界的惩罚意义。同时,这种主体性也为其他相关方推卸责任提供了可能。例如,日内瓦大学的国际法教授马可·萨索里 (Marco Sassoli) 就认为,目前自主武器的一个难题是,在使用自主武器的情况下,当发现攻击为非法时,取消攻击的责任究竟应当由谁来承担。同时,机器人由程序运行,并没有情感,在战争中极易发展成“杀手机器人”。正如彼特·辛格 (Peter Singer) 所指出的:“机器人可能招致一种黑暗而讽刺的结果。它们似乎降低了战争中人的损失,但可能会诱使我们发动更多战争。”其实,人类社会中的利益冲突主要发生在人与人之间,是人类社会自身产生的问题,其责任和后果理应由人类来承担,而不应该推卸给智能体。

同时,西方国家对伦理价值观的主导还与其技术垄断相结合。例如,在机器人武器的问题上,发达国家希望先形成技术优势,再借助国际规范来维护这种优势。其典型态度是先推动战争机器人的发展,在自身形成技术优势后,再对战争机器人的发展进行规范,通过创设相关的国际规约来限制机器人的生产和使用,从而维护发达国家的技术优势。从现状来看,人工智能的国际规则建设缺少发展中国家的参与,也没有迹象表明这些规则会朝着利于发展中国家的方向发展。

4人工智能对冲突逻辑的影响

人工智能的发展是否有助于减弱全球治理中的冲突逻辑?对此,笔者的观察主要集中在如下三点。

第一,长期来看,机器翻译可以改善文明间对话的效果。文化间隔阂是全球性问题产生的一个重要原因。塞缪尔·亨廷顿 (Samuel P.Huntington) 也预言,文明间的冲突将成为冷战后国际社会的主要矛盾。在智能革命之前,跨文化交流一直是一个难题。由于语言的差异,人们在沟通上存在障碍,这些障碍反过来加深了人们之间的不信任。因此,文化差异是人类历史上冲突和战争不断的重要原因。在《圣经》中关于巴别塔的故事中,上帝通过设置语言障碍,瓦解了修建通天之塔的人类联盟。语言不通的人们逐渐形成了不同文化,导致人们之间无法相互理解,由此产生冲突甚至战争。然而,人工智能中机器翻译技术的进步将极大地促进跨文化交流。众所周知,学习新的语言非常困难,掌握多种语言更是难上加难。但是,人工智能的发展给人类的语言学习提供了便利。一方面,机器翻译可以消除不同国家的人们在日常交流上的困难;另一方面,人工智能还可以反过来增强人的技能,即可以在机器营造的环境下快速学习,提高自身的语言能力。例如,中国人工智能公司开发的“英语流利说”就可以通过与机器人的对话来帮助人们增强语言能力。

第二,短期来看,在得到人工智能的赋能后,不同文化群体直接相遇的可能性和频率都会增加,可能会造成新的冲突或适应性问题。智能相关技术对弱势群体有较强的赋能作用,使其可以与其他群体展开更加平等的对话。这是因为弱势群体自身往往存在某些方面的缺陷,而人工智能技术恰恰可以弥补这些缺陷。例如,射频识别技术 (RFID) 可以帮助盲人在特定环境中安全行走,3D打印技术可以为肢体残疾者的假肢定制提供便利,脑机接口技术给予重病瘫痪者重新恢复行动能力的可能。著名经济学家和哲学家阿马蒂亚·森 (Amartya Sen) 极为强调能力平等。他认为,只有人和人之间的能力平等才能实现真正的平等。要实现能力的平等,人工智能无疑是最为重要的技术方案。过去,有缺陷的人们很难融入公共社会,但是技术的进步正在将这种不可能逐步变为可能。全球性问题中的卫生问题和贫困问题都涉及弱势群体的利益,而人工智能的发展恰恰可以为这些问题的解决提供新思路。因此,从长期来看,技术赋能带来的直接对话有助于不同群体的沟通,也有助于弱势群体的利益表达。但是,短期内由于智能赋能可能会出现表达高峰。不同文化群体在直接相遇时,也可能陷入跨文化交流的困境甚至冲突,而弱势群体仍然会面临参与的不平等。例如,卡洛—安娜·森尼特 (Carole-Anne Sénit) 等人在对2012年联合国可持续发展会议的大量在线对话的实证研究后得出结论,尽管信息和通信技术在对话和辩论中做出了贡献,但它在全球范围内加强而不是扭转了隐性的参与不平等,未能大幅增强透明度和问责制。

第三,人工智能的发展可能加剧全球失业问题,使得反移民浪潮更加高涨。经济学家一般将失业分为两类:周期性失业和结构性失业。周期性失业是指由于经济萧条和经济繁荣的外部环境变化使得人们在就业和失业之间循环。结构性失业则是描述长期性的、结构性的因素所导致的某些职业和岗位的完全消失。智能革命对就业的最大冲击在于,它不仅威胁传统意义上的体力工作者,而且对脑力工作者也有明显的替代效应。用杰瑞·卡普兰 (Jerry Kaplan) 的话来说就是:“无论你的领子是什么颜色,自动化都毫不留情。”未来人类社会所面临的很可能是全球失业的问题。失业不仅是发展中国家的难题,也会成为发达国家的难题。如果新的失业人口以经济难民的形式进行全球性流动,那么会造成更多的全球性问题。目前已经部分出现了反全球化或者“逆全球化”的趋势,例如发达国家越来越趋向于收紧移民政策以阻止发展中国家人口的大量涌入。由此观之,失业问题可能与反移民浪潮形成共振。

在共振效应下,世界会出现一些追求自我封闭的地区。人的自由流动是全球治理的基础。然而,西方国家已经出现了反对人口自由流动的趋势。此前,西方发达国家之所以鼓励人口流入,是因为劳动力缺乏。多数国家在进入发达社会之后,生育率都会下降,使得后续劳动力不足,只能依靠外来劳动力的流入来填补缺口。然而,外来劳动力流入的最大问题是会导致社会的巴尔干化。亨廷顿在《我们是谁》中所表达的就是这样一种忧虑。因此,西方国家一直试图通过科技革命来降低对外来人口的依赖。从这一意义上说,人工智能技术的发展将遏制那些在全世界范围内为寻找工作而产生的人口流动。当前,西方极右翼思想的一大主张就是反对人口流动。其认为,欠发达国家的移民抢走了本地居民的工作,并且造成了许多社会问题。如果西方国家反对人口流动和移民的思潮继续发展,世界范围内的人口流动会在某种程度上遭到冻结,发达国家和发展中国家之间的要素交换将不再发生。从这一角度来说,人工智能的发展和反移民浪潮可谓不期而遇。

5全球善智:消除霸权逻辑的努力

没有明显迹象表明,人工智能的发展会导致美国等西方国家的权力优势下降。尽管发展中国家可以发挥后发优势,但它们同样面临诸多困境,并可能会遭遇西方国家的技术封锁。同时,也没有证据表明,人工智能的国际规则正在朝着有利于发展中国家的方向发展。这一结论告诉我们,人工智能在全球治理中的应用,并不会自然地消解霸权逻辑。从某种意义上说,霸权逻辑甚至会得到重塑和加强。因此,各国需要在价值层面努力,在国际社会达成新的共识,以共同消除霸权逻辑。

基于此,笔者认为,全球智能治理的目标性价值应是全球善智。全球善智与全球善治有关联,也有区别。全球善治是全球治理中的一个重要理论,是指通过良善的治理来实现全球的正义目标。俞可平认为,“善治就是使公共利益最大化的社会管理过程”。在智能时代,我们同样需要进一步考虑价值性问题。例如,我们发展人工智能的初衷是什么?要基于何种目的来发展人工智能?以此而言,善智就是良善的智能,即将人工智能的发展目标定义为良善正义。全球善智就是要将人工智能的正义目标在全球层面铺开,进一步拓展全球治理的积极成果。卢恰诺·弗洛里迪 (Luciano Floridi) 提出了“伦理全球化”的概念,其主张“伦理话语表明它需要更新以应对一个全球化的,各部分被密切联系起来的世界。每一个伦理理论被要求为它世界范围的、跨文化的适切性辩护”。伦理全球化在智能时代的新要求可以被总结为全球善智。

全球善智应该包含两点内涵:一方面,人工智能的发展要进一步增强全球社会中的平等和正义。约翰·罗尔斯 (John Rawls) 在《正义论》中强调了国内层面的分配正义,托马斯·博格 (Thomas Pogge) 和查尔斯·贝茨 (Charles Beitz) 等人则在此基础之上提出了国际分配正义的问题。贝茨认为:“如果国内原初状态中选择出来的是差别原则,同样在国际原初状态中各方也应该选择差别原则。”各国国民之间也应承担平衡分配的义务。伯格也赞同将罗尔斯的契约主义和分配正义应用到全球社会,并以全球最弱势群体的状况作为制度评判的参考。如何定义智能时代的全球正义,如何在人工智能时代进一步推动善智,都是值得深入思考的问题。另一方面,善智的目的是发展良善的人工智能,这意味着人工智能的发展要推动全球性问题的解决,而不是加剧全球性问题。正如诺伯特·维纳 (Norbert Wiener) 所提醒的那样:“新工业革命是一把双刃剑,它可以用来为人类造福,但是,仅当人类生存的时间足够长时,我们才有可能进入这个为人类造福的时期。新工业革命也可以毁灭人类,如果我们不去理智地利用它,它就有可能很快地发展到这个地步。”卡里姆·阿约巴 (Kareem Ayoub) 和肯尼思·佩尼布 (Kenneth Payneb) 认为,人工智能正面临着当前人类智能所面临的伦理困境。基于此,如何定义善智和全球善智就显得尤为关键。

要想实现全球善智,需要做出如下努力:

第一,全球社会要在通用人工智能的发展问题上达成共识。阿西洛马原则强调通用人工智能开发的可行性,这也是西方企业界的共识。它们希望通过开发通用人工智能一劳永逸地解决所有问题。但是,通用人工智能的开发可能会导致人类存在的意义受到挑战。因此,全球社会应该在通用人工智能的发展上形成共识,要总结出哪些类型的通用人工智能是可以开发的,哪些是不可以开发的。笔者认为,一方面,我们不能完全停止通用人工智能的开发,这是因为其确实可以在许多方面帮助人类更有效率地解决某些问题。而且,后期人工智能的发展基本上是以通用人工智能为焦点,各国都会在这一领域竭尽全力,贸然放弃这一领域很可能会导致失去竞争优势。另一方面,要对通用人工智能的类型以及整体发展后果进行充分评估,特别是应该对更高等级的通用人工智能即超 (高) 级人工智能的开发保持足够警惕,因为其很可能会冲击人类的意义世界。

基于此,笔者认为,应该提出一种“机器人新三原则” (下文简称为新三原则) :第一原则,机器人永远是辅助;第二原则,人类决策占比不低于黄金比例;第三原则,人类应时刻把握着人工智能的发展节奏,随时准备好暂停或减速。在新三原则的规范之下,现存的有关机器人的争议可以得到一定程度的解决。例如,根据第一原则,在法律上,我们可以给予人工智能一定的法律地位,但绝不是完整的、类似于人的法律地位。在该领域,沙特阿拉伯政府授予机器人索菲亚以国籍可以视为重要的标志性事件。与此类似,美国在推动无人驾驶汽车的测试过程中,无人驾驶系统被开创性地赋予了司机的地位。欧洲近年来一直在讨论电子人权问题,其中就有主张要赋予人工智能系统某种类似于人类的权利关系和法律地位。笔者认为,智能体应该是“半主权的人”,可以给予智能体一定身份。这里可以参考对公司的认定方式。在公司法上,因为公司是拟制的,所以公司被给予法人的身份。从这个意义上讲,可以给予智能体一定身份,但是这种身份又不能完全等同于人的公民身份。

根据第二原则,人工智能可以成为决策的辅助,但是人类不能将所有的社会决策都交给人工智能完成。第三原则将引导人们更加谨慎乐观地发展人工智能,时刻掌握人工智能的发展节奏。这里提出的人类决策的占比不低于黄金比例的主要目的是,确保人类在将来的人机互动中占据主导地位,确保机器人在决策中处于辅助地位。从趋势来看,人类越来越习惯于将自己的几乎所有决策都交给机器来处理。以地图导航为例,虽然导航系统的发展可以便捷人们的出行,但是完全依赖导航的行为很可能导致退化。因此,应当通过使用机器来提高人类决策的效率,而非将决策完全交给机器。通过设置黄金比例,可以反复提醒我们不能把所有的决策都交给机器。之所以选择黄金比例0.618,是因为当机器的决策一旦超过一半,其存在将可能威胁人类的长期发展和人类自身的意义。当然,在实际操作的过程中,如何评估人类决策与机器决策的占比非常复杂。这一问题涉及大量的细节,计算也非常复杂。受限于本文篇幅,笔者将会在后续研究中加以深入探讨。

西方学者希望通过机器的自主道德性来约束机器。阿约巴和佩尼布指出,虽然人工智能可能拥有情感和道德能力,但也可能没有。面对这种可能,人类最好先完善自身的战略规划。西方学者一般把这种战略规划定义为培养有道德的机器。例如,温德尔·瓦拉赫 (Wendell Wallach) 和艾伦主张,通过建立人工道德智能体即道德机器,使得机器可以明辨是非。然而,笔者认为,西方学者中的这一主流思路从一开始就是错误的。既然要培养道德机器,那么前提就是毫无保留地承认机器的主体性。更重要的是,关于道德内涵的争论在整个哲学史上都没有停止过。那么道德机器的道德是谁的道德?是怎样的道德?我们不希望的是,这里的道德变成了西方主流价值观所定义的道德。

之所以强调人工智能的辅助性,是为了进一步凸显人的主体性。人的主体性需要在实践活动中加以确认和体现。人通过生产劳动改变了自然界的存在形式,实现了人类的构想和目标,从而将自然界置于自己的主体控制之下,成为自然界的主人。然而,人工智能异化的问题在于,人的主体性和实践性受到了根本挑战。马克思在《1844年经济学哲学手稿》中指出:“人的类的特性恰恰就是自由的有意识的活动。”这种“自由的有意识的活动”是人的本质。如果丧失了这一特征,人将难以为人。

第二,要通过一种全球协商机制来对智能化的发展的节奏加以调节。目前人工智能的发展主要由民族国家和企业来推动,然而,人工智能的影响却是全球性的。例如,各国在人工智能发展领域的竞争会形成一种全球层面的焦虑,一国很难在这一领域减速,因为减速很可能意味着出局。这种焦虑可能使得新三原则中的第三原则失效。因此,形成全球层面的机制协调至关重要。我们不能在明确的威胁形成之后,才进行全球协调。在冷战期间,美苏双方的协调是在威胁明确、感觉到已经不能承受的毁灭之重时才开始启动。美苏双方起初都希望拥有更多的核武器,但是当双方意识到核武器的总数已经足以将整个人类文明摧毁成千上万次之后,就开始就核军备控制进行谈判,共同限制核武器的发展。

再如,失业问题同样需要提前进行全球协调。在人类社会适当保存一些冗余设置,或者向人工智能系统征税并补偿失业者,这些都可以为人类社会的自我调节争取更多时间,减缓智能体对人类劳动者的替代速度。否则,人类社会很有可能陷入内部争斗激化的困境。如果缺少对人工智能发展的适度调控,那么南北差距可能进一步拉大,最终导致全球性问题的激化。失业问题同样超出了某一民族国家的能力范围,全球协调的意义更加凸显。

第三,将可解释的、安全的人工智能作为未来发展方向。阿米尔·侯赛因 (Amir Husain) 认为,要推进人工智能的发展,设定超高的安全性和可解释性标准迫在眉睫。未来人工智能的发展要更多向安全、人文和理性这些人类特征靠近。当前这一轮人工智能浪潮主要归功于机器学习中的深度学习算法。深度学习是以数据为基础,由计算机自动生成的特征量。它不需要由人来设计,而是由计算机自动获取高层特征量。典型的深度学习模型就是深层的神经网络。对于神经网络模型而言,提高容量的一个简单方法就是增加隐层的数量。隐层数量增多,相应的神经元连接权、阈值等参数就会增加,模型的复杂度也会随之提高。深度学习强调数据的抽象、特征的自动学习以及对连接主义的重视。但是,深度学习缺少完善的理论。因此,在深度学习的应用实践中,工程师需要手工调整参数,才能得到一个较好的模型,但同时工程师也无法解释模型效果的影响因素。换言之,由于大量内部参数的不可解释性,深度学习本身存在算法黑箱。因此,发展可解释的人工智能就成为关键。与深度学习的路径不同,知识图谱则利用实体链指、关系抽取、知识推理和知识表示等方法,其有希望推动可解释的人工智能的发展突破。

第四,通过智能化来推动解决发展中国家历史性难题。善智更多是赋能,而不是替代。通过人工智能巨大的赋能能力,发展中国家的弱势群体可以有更多的机会来改善自身条件。“我们不需要夺走任何人的东西,只需要用一种更加公平的方式来分配未来的增长,问题就会迎刃而解。”卡普兰的这一观点是有见地的,我们需要把这一观点在国际社会中加以推广和适用。从这一意义上说,智能化应当是多数全球性问题的优化解决方案。例如,许多发展中国家饱受水资源短缺的困扰,通过有效的智能化水资源管理,可以使这一问题得到有效解决。再如,对于发展中国家而言,最大的问题是社会传统对管理活动的影响。智能化方案可以在智能系统和设备的辅助下将社会传统的影响降到最低,从而有效应对一些历史顽疾。例如,通过智能化技术手段可以使对政府的监管更加高效透明,可以在控制行政成本的前提下降低腐败发生的可能。因此,应当把人工智能作为解决全球性问题的重要方案和思路来加以推进。人工智能的最大优点是可以极大地节省人力资源,而联合国和其他国际组织在第三世界国家执行相关任务时的最大难点就是人力资源缺乏,人工智能可以在这方面发挥重要的补充作用。

第五,在全球治理和国家治理之间达成平衡。要想实现平衡,需要在全球层面形成人工智能相关的协调机制,并与国内制度形成积极良性的互动。一方面,目前涉及人工智能的国际规则主要由西方发达国家的企业或机构来推动制定,这意味着从全球层面整体考虑的全球性人工智能治理机制是缺位的。因此,下一步需要发达国家和发展中国家共同推动机制建设。另一方面,全球治理最终还是要回到国家治理的框架中。在国际社会中,国家仍然是最重要的行为体。多数与个人福利、安全保障相关的关键问题最终都要由国家来解决。所以,只谈全球治理不谈国家治理的方案是空洞而不切实际的。在国家治理层面,最为关键的问题是如何通过人工智能的技术和产业发展提高各国 (特别是发展中国家) 的国家治理能力,从而在根本上消除引发全球性问题的国内根源。

6全球合智:消除冲突逻辑的努力

长期来看,人工智能的发展有助于人们增进了解,但在短期内的频繁直接接触则可能引发新的冲突。人工智能技术能够帮助流动中的人们了解他国文化,但是全球性失业问题加剧的反移民浪潮并不利于人口的全球性自由流动。这表明,人工智能在全球治理中的应用很难直接削弱冲突逻辑,甚至在短期内还会加剧冲突。因此,在价值层面上的准备就更加重要。其中的关键问题是,如何在智能时代形成紧密而团结的全球社会。

在这一过程中,中国的作用尤为关键。在中国共产党第十九次全国代表大会报告中指出,中国特色社会主义进入了新时代,但是中国仍然是发展中国家的一员,仍然处于社会主义初级阶段。中国也在国际舞台中积极为广大发展中国家争取利益。中国提出“一带一路”倡议就是希望就自身的发展经验与其他发展中国家交流,在“五通”的基础上,为其他国家的基础设施和民生项目建设提供帮助。可以看出,中国在思考自身发展的同时,也在考虑广大发展中国家的利益。

在人工智能发展的问题上,中国的态度与西方形成鲜明对比,这体现在如下两点:第一,与西方的悲观论不同,中国对人工智能的发展持谨慎乐观的态度。西方学术界和产业界对人工智能的未来发展结果都非常悲观,这与基督教文化传统中的末世论有密切关系。这种悲观不仅体现在对待人工智能技术的发展上,还出现在其他前沿技术 (如生物技术) 的伦理讨论中。例如,弗朗西斯·福山 (Francis Fukuyama) 就认为,在生物技术的推动下,人类可能会进入一个后人类的未来,更为等级森严、矛盾丛生。50相比较而言,中国则更多持谨慎乐观的态度。例如,中国强调需要抓住新一轮科技革命的机遇,积极主动地发展相关科学技术及其应用。同时,中国强调积极应对人工智能在伦理、法律方面的潜在影响,体现了对人工智能发展的谨慎态度。

第二,与西方国家强调独占和霸权不同,中国更强调与其他国家 (特别是发展中国家) 共享。如果人工智能的发展最终会导致国际分工体系的终结,那么发展中国家通过与西方国家的交流与合作进而走向发展的可能性就会越来越小。如果西方国家进一步限制第三世界人口的流入,那么人工智能技术向第三世界的流动就更加不可能。与之不同,中国主张共商、共建和共享。“一带一路”倡议就是这一理念的体现。中国领导人指出:“‘一带一路’建设秉持的是共商、共建、共享原则,不是封闭的,而是开放包容的;不是中国一家的独奏,而是沿线国家的合唱。”中国在“一带一路”建设中积极倡导前沿技术的合作、协同与共享。

基于共商、共建和共享,人工智能的发展可以让国际社会中的绝大多数群体都可以从中获得收益和便利。作为发展中国家的代表,中国能够在人工智能时代伸张发展中国家的利益诉求。因此,中国的人工智能发展还具有道义立场,其发展不仅是为了中国自身,同时还能为广大发展中国家谋取发展权益。

基于此,笔者提出全球合智的概念。全球合智就是从全球范围内集合人类和智能体的共同智慧来为全球性问题的解决做出贡献。全球合智是一种整体性思维,是从全球视角来考虑问题。同时,全球合智也是一种并行思维。目前人工智能取得重大突破的原因主要是数据量的增大、计算能力的提高和算法的改进。实际上,机器的算法与人相比是非常笨拙的,但是由于机器有强大的并行计算能力,这样就可以把相对笨拙的算法步骤整合出整体优异的结果。如果人类也向机器学习这种并行计算,联合各方面的力量,达成共识、齐心协力,就可能攻克困扰人类的全球性难题。因此,应当形成一种人工智能时代的“新全球治理共识”。具体而言,全球合智应包含三方面的内容。

第一,人机合智。这主要包括两点内容:其一,人工智能和人类智能的各自优势可以互补。人工智能的优势是可复制、易推广,能使信息储存和记忆回溯更为完整,也能够有效避免情感等非理性因素的干扰。然而,人工智能也存在一些不足。作为一种技术密集型和资本密集型的产业,人工智能需要对其应用和开发的成本和收益进行评估。另外,目前的深度学习算法存在解释黑箱,从而导致结果的不可解释性。相比而言,人类智能本身就是通用智能,在面对更多情境和处理复杂问题时的效率明显更高。然而,人类智能需要在休息和工作的交替中才能实现,无法在短期内实现大范围的扩展,还存在模糊记忆以及感性因素驱动等问题。因此,在实践中,人类智能与人工智能可以互相补充、取长补短。其二,人工智能可以是人类的助手、朋友和辅助者,但是重要决策仍然应该由人类做出。机器要始终是辅助者,而不是决策者。在某些方面可以让机器决策成为主导,但是整体上人类决策的比例不应低于黄金比例,否则意义世界将会因此模糊,最终导致人类独特性的丧失。

第二,多国合智。在目前的全球治理中,国家仍然具有重要地位。个人利益仍然主要由国家来保障,任何全球治理机制最终都要落实到国家层面。从前几次工业革命与国家的关系来看,如果争夺技术主导权的问题处理不好,那么最终导致的结果很有可能是国家间战争。这一点在两次世界大战中都可窥见一斑。第三次工业革命中同样可以看到美国与苏联和日本的冲突迹象。在第四次工业革命的发展过程中,美国是规则定义者,中国则是新兴力量。因此,美国已经把中国作为重要的竞争对手加以遏制,这一点在近年来的中美贸易争端中表现得极为明显。中美贸易争端的实质是科技竞争。美国希望利用中美贸易争端来阻止中国在新一轮技术革命中获得定义权。美国仍然在用传统的冷战思维来看待当前问题,最终必然导向冲突,这一点在第一次世界大战前英国对待德国的态度中就有所体现。我们恰恰要跳出这种错误思维。只有突破冷战思维,在新的框架下用合智将中国和美国的力量结合起来,才能共同为人类的科技进步和发展贡献力量。

冷战思维在大数据时代的集中体现就是数据民族主义。丹尼尔·卡斯特罗 (Daniel Castro) 认为,在数据民族主义者看来,数据只有被存储在自己国家境内才会安全。这种观念越来越多地被各国的决策层所吸纳,并整合进各国和数据相关的法律和政策中。卡斯特罗认为,这种错误观点最终会导致一系列阻碍创新、生产力发展和贸易的政策的出台。针对这种错误观点,多国合智就需要各国就人工智能在全球治理中的适用形成一系列公约。约翰·韦弗 (John Weaver) 建议,各国应该就人工智能与国家责任、国家主权、自导航行器、知识产权、监控以及武装冲突等相关内容形成一系列国际公约。韦弗指出,国家间应该起草多边协议,以确定人工智如何影响国家主权,确定何种程度的无人机监视是可以允许的以及确定在武装冲突中人工智能做什么。这种多国合智强调的是,各国间的协调不仅要建立在具有固定规则和约束性承诺的国际公约基础上,更要提供一些灵活的软治理框架,例如自愿基础上的非对抗性、非惩罚性的合规机制。例如,东盟的地区治理方式以其包容性、非正式性、实用主义、便利性、建立共识和非对抗性谈判而闻名,与“西方多边谈判中的敌对姿态和合法决策程序”形成鲜明对比。关于气候变化的《巴黎协定》也是如此,它们代表了一种新的全球治理形式。因此,未来关于人工智能领域的多国合作可以更多以软治理的形式展开。

第三,多行为体合智。人工智能赋能的未来全球治理不应该仅仅由少数国家或者少数超级公司来决定。在人工智能规则、政策和法律的产生和制定过程中,应该将多方行为体广泛纳入。整体来看,人工智能对非国家行为体有很强的赋能效果。其一,智能革命使得国际组织协调性治理的成本降低。例如,在人工智能和区块链等技术的辅助下,各国的政策协调和沟通会更加便利,同时对国家履行国际组织承诺的监督和检查同样可以通过智能技术而进一步制度化。弗洛里迪提出了“政治多智能体系统”的概念,认为这一系统可以减少资源浪费并将回报最大化,而国际组织更加符合政治多智能体系统的特征。然而,由于资源更多地集中于国家和跨国公司,因此国际组织能否发挥作用主要取决于国家授权的程度。目前,已经出现了全球化衰退和国家主义兴起的苗头,因此西方主要国家的态度就变得非常关键。菲利普·阿尔斯通 (Philip Alston) 认为,正在发展致命机器人武器的技术领先国家可能不会愿意接受国际法管辖或主动制定法律和道德约束。同时,这类技术的目标国或受害国也不太可能领导这项工作。因此,这一责任不可避免地落在了国际行动者特别是联合国的身上。

其二,公民个体和社会组织在智能革命中可以得到一定程度的赋能,但也面临诸多挑战。例如,利用自媒体,公民个体可以成为舆论的中心,从而影响被国家掌握的传统主流媒体。智能革命的多数产品都是以个人即消费者为中心展开的,因此这种消费者赋能实际上是个体赋能。利用新的技术工具,公民个体可以在全球层面更大程度地联合起来。丹·普莱什 (Dan Plesch) 和托马斯·维斯 (Thomas Weiss) 认为,网络和非正式机构的全球扩张是对战后多边主义特别是联合国机制的一个重大挑战。互联网、大数据和人工智能无疑助推了这些非正式网络的发展。非正式网络往往被理解为全球治理的碎片化,然而这种碎片化也可能是创造性的,因为它反映了世界政治中更广泛力量的变化。奥特温·雷恩 (Ortwin Renn) 指出,现代社会比以往任何时候都更加需要社会大众的参与。有效和充分的公民参与机制可以降低对新技术未来风险的抗议和抵制。(注释略)

推荐阅读

入驻平台 :  百家新闻  |  搜狐新闻  |  今日头条  |  腾讯新闻  |  一点资讯  |  凤凰新闻  |  网易新闻

授权发布平台 :  新华日报  |  南京日报  |  中国江苏网  |  龙虎网

合作媒体 :  新华社  |  中国新闻社  |  新华网  |  人民网  |  光明网  |  国际在线  |  中国网  |  中国日报网  |  中国青年网  |  中国搜索  |  千龙网  |  半月谈  |  凤凰网  |  新华报业网  |  扬子晚报网  |  网易网

总部办公地址 : 南京市玄武区黄埔路黄埔大厦24楼

民意调查与绩效评估中心地址 : 南京市新城科技园安科大厦A栋1101

联系电话 : 025-83301762 58919658

电子邮件 : 1115821846@qq.com