网络系统与网络文化北京市重点实验室
人工智能(Artificial Intelligence,AI)起源于1956年的达特茅斯会议。AI一词一经提出,就引起了众多学者的关注与研究,人们致力于让机器像人一样具有智能,能够与人进行自然的人机交互。虽然总体目标基本一致,但是AI大体上分为两个大的研究方向:一派提倡从上到下(top-down)的方法,即认知主义。这派学者提倡研究人类的策划、推理以及解决问题的能力。先赋予机器复杂的智力,再让他们去完成简单的行为。而另一派则是自下而上的,被称为涌现主义。即不包括任何抽象概念或推理过程,只需让机器人对所感知到的刺激做出反应即可[1]。这两派的研究均取得了很大成就,尤其是近些年深度学习算法的提出与发展,为人类的生活带来了极大的帮助。
与此同时,人工智能的迅速发展也给人类生活带来了一些困扰与不安,尤其是奇点理论提出之后,许多人质疑机器的迅速发展会给人类带来极大的危险,随之而来的很多机器事故与机器武器的产生更加印证了人们的这种印象。于是,关于机器伦理、机器道德的研究层出不穷。本文将从人工智能的伦理问题入手,在论述人工智能伦理及其相关概念的基础上,分析人工智能伦理中人工智能能否冲击就业、人工智能的责任等焦点问题,并对未来人工智能的伦理发展提出了相关建议。
一、人工智能伦理的概念及相关研究 1. 伦理的概念伦理(ethics)一词源自于希腊文的“ethos”,其意义与拉丁文“mores”意思相近,有风俗、习惯的意思。在西方,伦理学发展流派纷呈,比较经典的有叔本华的唯意志主义伦理流派、詹姆斯的实用主义伦理学流派、斯宾塞的进化论伦理学流派,以及海德格尔的存在主义伦理学流派。其中存在主义是西方影响最广泛的伦理学流派,始终把自由作为其伦理学的核心,认为“自由是价值的唯一源泉”[2]。
在我国,伦理的概念要追溯到公元前6世纪,《周易》、《尚书》已出现单用的伦、理。“伦”是指人们的关系,“三纲五伦”、“伦理纲常”中的伦即人伦,而“理”则是条理和道理,指人们应遵循的行为准则。与西方相似,不同学派的伦理观差别很大,儒家强调仁、孝悌忠信与道德修养;墨家信奉“兼相爱,交相利”;而法家则重视法治高于教化,人性本恶,要靠法来相制约[2]。
总的来说,伦理是哲学的分支,是研究社会道德现象及其规律的科学。对其开展研究非常必要,因为伦理不但可以建立起一种人与人之间的关系,而且可以通过一种潜在的价值观来对人的行为产生制约与影响。很难想象,没有伦理的概念,人类社会会有什么人伦与秩序可言。
2. 有关人工智能伦理的研究人工智能伦理一词诞生以前,很多学者已经对机器与人的关系进行过研究,并发表了自己的观点。1950年,维纳在《人有人的用途:控制论与社会》一书中就曾经担心自动化技术将会造成“人脑的贬值”[3]。20世纪70年代,休伯特·德雷福斯曾经连续发表文章《炼金术与人工智能》和《计算机不能做什么》[4],从生物、心理学的层面得出了人工智能必将失败的结论。而有关机器伦理(与人工智能伦理相似)的概念则源自《走向机器伦理》一文[5]。文中明确提出:机器伦理关注于机器对人类使用者和其他机器带来的行为结果。文章的作者之一安德森表示,随着机器越来越智能化,其也应当承担一些社会责任,并具有伦理观念。这样可以帮助人类以及自身更好的进行智能决策。无独有偶,2008年英国计算机专家诺埃尔·夏基教授也曾呼吁人类应该尽快制定机器(人)相关方面的道德伦理准则。目前国外对于人工智能伦理的研究相对较多,如2005年欧洲机器人研究网络(EURON)的《机器人伦理学路线图》、韩国工商能源部颁布的《机器人伦理宪章》、美国国家航空航天局(NASA)对“机器人伦理学”所进行的资助等[6]①。国外相关的文献也相对丰富,主要集中在机器人法律、安全与社会伦理问题方面。
中国对人工智能伦理的相关研究起步较晚,不如国外系统与全面。但是近些年来,一些学者也将研究重点放在人工智能的伦理方面。在《机器人技术的伦理边界》[7]与《我们要给机器人以“人权”吗?》[8]中,两篇文章的作者都对机器人研究领域伦理概念的发展与演变趋势做了较为详细的梳理,其中也关注了人与机器人进行交互时所产生的伦理问题。而《人工智能与法律问题初探》[9]中,作者则侧重对人工智能与法律的关系进行论述,随着当今人工智能技术的不断成熟,伦理问题也日益严重,我们急需进行立法来规范某些领域内的人工智能技术。值得一提的是,从以上文献可以看出,我国学者已经从单纯的技术伦理问题转向人机交互关系中的伦理研究,这无疑是很大的进步。
二、人工智能能否代替人类的工作对于人工智能与人的关系,很多学者提出过质疑并进行了讨论。1967年,《机器的神话》[10]的作者刘易斯·芒福德就对机器工作提出了强烈的反对意见,认为机器的诞生使人类丧失个性,从而使社会变得机械化。近些年来,奇点理论的提出与宣传[11],更加使人们担忧机器是否将会全面替代人类,该理论的核心思想即认为机器的智能很快就将超过人类。
作者认为,人工智能不断进步,已是不争的事实。机器的感觉、运动、计算都将会远远超过人类,这是机器的强项,但是不会从根本上冲击人类的工作岗位与就业。主要基于以下几方面的思考:
首先,虽然机器与人类分别有自身的优势,但人类的优势是机器在短期无法比拟与模仿的。人类具有思维能力,能够从小数据中迅速提炼归纳出规律,并且可以在资源有限的情况下进行非理性决策。人类拥有直觉能够将无关的事物相关化。人类还具有与机器不尽相同的内部处理方式,一些在人类看来轻而易举的事情,可能对于机器而言就要耗费巨大的资源。2012年,Google训练机器从1000万张的图片识别出猫。2016年,谷歌大脑团队训练机器,根据物体的材质不同,来自动调整抓握的力量。这对于一个小孩子来说,是很简单的任务,但在人工智能领域,却正好相反。正如莫桑维克悖论所阐述的,高级推理所需要的计算量不大,反倒是低级的感觉运动技能需要庞大的计算资源。
其次,目前人类和机器还没有达到同步对称的交互,仍然存在着交互的时间差。目前为止,仍然是人类占据主动,而且对机器产生不可逆的优势。皮埃罗·斯加鲁菲在《智能的本质》一书中曾经提出:人们在杂乱无章的大自然中建立规则和秩序,因为这样的环境中人类更容易生存和繁衍不息。而环境的结构化程度越高,制造在其中的机器就越容易,相反,环境的结构化程度越低,机器取代的可能性越小[12]。由此可见,机器的产生与发展是建立在人们对其环境的了解与改造上的。反过来,机器的发展进一步促进了人们的改造与认知活动。这就如天平的两端,单纯的去掉任何一方都会导致天平的失衡。如果没有人类的指引与改造作用,机器只能停留在低端的机械重复工作层次。而机器在一个较低端层次工作的同时也会使得人们不断追求更高层次的结构化,从而使得机器向更高层次迈进。这就像一个迭代上升的过程,人-机器-人-机器,以此循环,人类在这段过程中总是处于领先的地位。所以机器可以取代人类的工作,而不是人类。
第三,人工智能的高速发展给人类带来了机遇。虽然技术的发展会产生一些负面影响,但是从全局来看,是利大于弊。新技术的发展带来的机遇是全方位的。乘法效应说明的就是这个道理:在高科技领域每增加一份工作,相应地在其它行业增加至少4份工作,传统制造业则为1:1.4[12]。我们应该看到,如今伴随着人工智能的飞速发展,相关企业如雨后春笋般诞生,整体拉动了相关产业(服务业、金融业)的发展,带来了更多的就业机会。
任何一项技术的发展都不是一蹴而就,而是有循序渐进的过程。无论是最早期的类人猿的工具制造、还是后来的电力发展、再到现在的互联网时代,技术的发展与运用是需要时间来保证的。现在社会上有些人担心人工智能的发展会立即冲击自己的工作,实则是有些“杞人忧天”的意味。以史可以明鉴,历史上大的技术突破并没有对人类的工作产生毁灭性的打击。蒸汽机的诞生替代了传统的骡马、印刷机的诞生取代了传统的抄写员、农业自动化设施的产生替代了很多农民的耕种,但这都没有致使大量的工人流离失所,相反,人们找到了原本属于人类的工作。新兴技术创造的工作机会要高于所替代的工作机会。所以,我们不必过分担心机器代替人类工作的问题。
三、谁来为事故负责2016年7月,特斯拉无人驾驶汽车发生了重大事故,造成一名司机当场死亡。这件事故很快成为了新闻媒体的焦点。人们不仅仅关注这件事情本身所带来的影响,而且更加担心机器作为行为执行主体,发生事故后责任的承担机制。究竟是应该惩罚那些做出实际行为的机器(并不知道自己在做什么),还是那些设计或下达命令的人,或者两者兼而有之。如果机器应当受罚,那究竟如何处置呢?是应当像西部世界中将所有记忆全部清空,还是直接销毁呢?目前还没有相关法律对其进行规范与制约。
随着智能产品的逐渐普及,我们对它们的依赖也越来越深。在人机环境交互中,我们对其容忍度也逐渐增加。于是,当系统出现一些小错误时,我们往往将其归因于外界因素,无视这些微小错误的积累,我们总是希望其能自动修复,并恢复到正常的工作状态。遗憾的是,机器黑箱状态并没有呈现出其自身的工作状态,从而造成了人机交互中人的认知空白期。当机器不能自行修复时,往往会将主动权转交给人类,人类就被迫参与到循环中,而这时人们并不知道发生了什么,也不知道该怎样处理。据相关调查与研究,人们在时间与任务压力较大的情况下,往往会产生认知负荷过大的状况,从而导致本可以避免的错误却发生了。如果恰巧这时关键部分出了差错,就会产生极大的危险。事后,人们往往会责怪有关人员的不作为,却忽视机器一方的责任,这样做是有失偏颇的。也许正如佩罗所说:60—80%的错误可以归因于操作员的失误。但当我们回顾一次次的错误时,会发现操作员面临的往往是系统故障中未知甚至诡异的行为方式。我们过去的经验帮不上忙,我们只是事后诸葛亮[13]。
作者认为人工智能存在三种交互模式,即人在环内、人在环外与以上两者相结合。人在环内即控制,这个时候人的主动权较大,从而人们对整个系统产生了操纵感。人在环外即自动,这时候,人的主动权就完全归于机器。第三种情况就是人可以主动/被动进入系统中。目前大多数所谓的无人产品都会有主动模式/自动模式切换。其中被动模式并不可取,这就像以前讨论的那样,无论是时间还是空间上,被动模式对于系统都是不稳定的,很容易造成不必要的事故。
还有一种特殊情况,就是事故是由设计者/操纵者蓄意操纵的,最典型的是军事无人机这种武器,军方为了减少己方的伤亡,试图以无人机代替有人机进行军事活动。无人机的产生将操作员与责任之间的距离越拉越远,而且随着无人机任务的愈加复杂,幕后操纵者也越来越多,每个人只是完成“事故”的一小部分。所以人们的责任被逐渐淡化,人们对这种“杀戮”变得心安理得。而且很多人相信,无人机足够智能,与军人相比,能够尽可能减少对无辜平民的伤害。可具有讽刺意义的是,美国的无人机已经夺去了2500—4000人的性命,其中约1000位平民,且有200名儿童[12]。2012年,人权观察在一份报告中强调,完全自主性武器会增加对平民的伤害,不符合人道主义精神[14]。不过,目前对于军事智能武器伦理的研究仍然停留在理论层面,要想在实际军事战争中实践,还需要更加做出更多的努力。
综上可以看出,在一些复杂的人机环境系统中,事故的责任是很难界定的。每个人(机器)都是系统的一部分,完成了系统的一部分功能,但是整体却产生了不可挽回的错误。
四、一些思考人工智能中人与机器究竟应该以何种方式共处?作者认为,人工智能还远没有伦理的概念(至少是现在),有的只是相应的人对于伦理的概念,是人类将伦理的概念强加在机器身上。在潜意识中,人们总是将机器视之合作的人类,所以赋予机器很多原本不属于它的词汇,如机器智能、机器伦理、机器情感等。在作者看来,这些词汇本身无可厚非,因为这反映出人们对机器很高的期望,期望其能够像人一样理解他人的想法,并能够与人类进行自然的交互。但是,现在的当务之急是要弄清人的伦理中可以进行结构化处理的部分,只有这样才可以让机器学习,形成自己的伦理体系。正如第一部分讨论的,伦理是由伦和理组成的,每一部分都有自己的含义,而“伦”,即人伦,更是人类在长期进化发展中所逐渐形成的,具有很大的文化依赖性。更重要的是,伦理是具有情景性的,在一个情景下的伦理是可以接受的,而换到另一种情景,就变得难以理解,所以,如何解决伦理的跨情景问题,也是需要考虑的问题。
值得一提的是,就人机环境交互而言,机不仅仅是指机器,更不是单纯的指计算机,还包括机制与机理。而环境不仅仅单指自然环境、社会环境,更要涉及到人的心理环境。单纯的关注某一个方面,总会做到以偏概全。人工智能技术的发展,不仅仅是技术的发展与进步,更加关键的是机制与机理的与时俱进。因为两者的发展是相辅相成的,技术发展过快,而机制并不完善,就会制约技术的发展。现在的人工智能伦理研究就有点这个意味。现在的人类智能的机理尚不清楚,更不要提机器的智能机理了。而且,目前机器大多数关注人的外在环境,即自然环境与社会环境,机器从传感器得到的环境数据来综合分析人所处的外在环境,但是却很难有相应的算法来分析人的内部心理环境,人的心理活动具有意向性,具有动机性,这也是目前机器所不具备的,也是不能理解的。所以对于人工智能的发展而言,机器的发展不仅仅是技术的发展,更是机制上的不断完善。研究出试图理解人的内隐行为的机器,则是进一步的目标。只有达到这个目标,人机环境交互才能达到更高的层次。
人工智能伦理研究是人工智能技术发展到一定程度的产物,它既包括人工智能的技术研究,也包括机器与人、机器与环境及人、机、环境之间关系的探索。与很多新兴学科一致,它的历史不长,但发展速度很快。尤其是近些年,依托着深度学习的兴起,以及一些大事件(AlphaGo战胜李世石)的发生,人们对人工智能本身,以及人工智能伦理研究的兴趣陡然上升,其相关研究与成果也相对增多。但是,可以预期的是,人工智能技术离我们设想的智能程度还相去甚远,且自发的将人的伦理迁移到机器中的想法实现难度就极大。回顾过去,人工智能总是在起伏中前进,如何保证政府的资助力度与人们的热情无论在高峰还是低谷的周期中都保持在同一水平线上,是一个很难回避的问题。这些都需要人工智能伦理专家做进一步的研究。
总之,人工智能伦理研究不仅仅要考虑机器技术的高速发展,更要考虑交互主体—人类的思维与认知方式,让机器与人类各司其职,互相促进,这才是人工智能伦理研究的前景与趋势。
① 本文认为人工智能伦理与机器(人)伦理本质上没有太大区别,本文中两者可以替换。
[1] | 斯特凡•东希厄, 徐寒易译. 会做梦的机器人. 环球科学, 2017,(4): 48–49. |
[2] | 毕彦华. 何谓伦理学. 北京: 中央编译出版社, 2010. |
[3] | [美]维纳. 人有人的用处: 控制论与社会. 陈步译. 北京: 北京大学出版社, 2010. |
[4] | [美]哈里·亨德森. 人工智能—大脑的镜子. 侯然译. 上海: 上海科学技术文献出版社, 2011. |
[5] | M. Anderson, S. Anderson , C. Armen, Towards Machine Ethics: Implementing Two Action-Based Ethical Theories[C] . In M. Anderson , S. Anderson , C. Armen (Eds.), Machine Ethics: AAAI Fall Symposium, Technical Report FS-05-06. Menlo Park, CA: AAAI Press, 2005: 1–7. |
[6] | 王绍源, 崔文芊. 国外机器人伦理学的兴起及其问题域分析. 未来与发展, 2013(06): 48-52. DOI: 10.3969/j.issn.1003-0166.2013.06.006. |
[7] | 迟萌. 机器人技术的伦理边界. 机器人技术与应用, 2009(03): 21-23. DOI: 10.3969/j.issn.1004-6437.2009.03.005. |
[8] | 黄建民. 我们要给机器人以" 人权”吗?. 读书与评论, 2009(06): 55-58. |
[9] | 唐昊沫, 舒心. 人工智能与法律问题初探. 哈尔滨学院学报, 2007, 28(01): 42-47. DOI: 10.3969/j.issn.1004-5856.2007.01.010. |
[10] | 刘易斯. 芒福德. 机器的神话. 宋俊岭等译. 北京: 中国建筑工业出版社, 2009. |
[11] | [美]库兹韦尔. 奇点降临. 李庆诚, 董振华, 田源译. 北京: 机械工业出版社. 2011. |
[12] | [美]皮埃罗•斯加鲁菲, 智能的本质. 任莉, 张建宇译. 北京: 人民邮电出版社, 2017. |
[13] | James Reason. Human error. Cambridge: Cambridge University Press. 1990. |
[14] | 杜严勇. 关于机器人应用的伦理问题. 科学与社会, 2015, 5(2): 25-34. |
Beijing Key Laboratory of Network System and Network Culture, China