文章快速检索     高级检索
  科学与社会  2023, Vol. 13 Issue (3): 65-84, 126  
0

引用本文 

苏晨生. ChatGPT与奇点临近——论查尔莫斯人工智能奇点的哲学论证[J]. 科学与社会, 2023, 13(3): 65-84, 126.
SU Chen-sheng. ChatGPT and the Singularity Is Near: On the Chalmers’ philosophical argument for the singularity of artificial intelligence[J]. Science and Society, 2023, 13(3): 65-84, 126. DOI: 10.19524/j.cnki.10-1009/g3.2023.03.065.

作者简介

苏晨生,中国人民大学哲学院博士研究生。研究方向为技术哲学、人工智能伦理学

ChatGPT与奇点临近
        ——论查尔莫斯人工智能奇点的哲学论证
苏晨生     
中国人民大学哲学院
摘要: ChatGPT在全球范围内的热议将奇点问题重新带入到人们的视野中,似乎改变人类历史的奇点提前来临。著名哲学家查尔莫斯对人工智能领域出现超级智能进而导致的奇点做了哲学上的论证。在没有击败者和忽略时间因素的情况下,他认为人工智能奇点是可能存在的,因为人类在制造出与其智能相当的AI以及超出人类平均智能水平的AI+之后,AI+将会通过自我改进和放大的能力制造出比自己智能水平更高的超级智能AI++。尽管对查尔莫斯的论证存在很多质疑,但均超出了哲学的界限。从哲学的角度来看,人工智能奇点会以两条截然对立的路径出现,分别是超人类主义导向和后人类主义导向的人工智能奇点。这两类奇点的区分拓展了查尔莫斯关于人工智能奇点的哲学论证。
关键词: 奇点    人工智能    超级智能    超人类主义    后人类主义    
中图分类号: C936           文献标识码: A
DOI: 10.19524/j.cnki.10-1009/g3.2023.03.065

最近由美国人工智能实验室Open AI研发的机器人聊天工具ChatGPT (Chat Generative Pre-trained Transformer)引发了全球热议,被认为“彻底改变了我们与科技互动的方式”[1],人们在讨论新技术带来的独特体验的同时,关于它将取代人类的担忧不绝于耳,朋友还是敌人的分裂已然挑动起人们的神经[2]。ChatGPT的问世似乎预示奇点(singularity)的提前到来——雷·库兹韦尔(Ray Kurzweil)曾在其畅销书《奇点临近》中将这个时间设定在2045年[3],而另一个著名的奇点主义者弗诺·文奇(Vernor Vinge)甚至将时间提早到2030年[4],尽管距离计算机科学家冯·诺依曼(John von Neumann)第一次在人工智能领域提出奇点概念(1957年)已过了66年[5]

在一次会议上,冯·诺依曼曾对奇点做出这样的预言:“科技的加速进步和人类生活方式的变化……在人类历史上出现了某种本质性的奇点,超过了这个奇点,我们所知道的人类事务就无法继续下去了”[5]240。后来在文奇以及库兹韦尔的推动下,奇点概念引起了人们的广泛关注。在一些奇点主义者看来,随着人工智能等高科技的发展,在不久的未来人类会进入到一个新的纪元,它将“从根本上改变人类文明,甚至可能是人性本身”[6]。奇点概念的社会化无疑满足了高科技时代人类关于未来的想象,奇点主义者认为它是一个严肃的科学与技术概念,宗教徒则将奇点到来视为千禧年的降临,而一些后现代主义者或者后人类主义者将其视为被机器统治的人类的终结,而社会批判家则将奇点视为资本主义时代的意识形态殖民。如果在ChatGPT问世以前,奇点因沉重的社会与文化乃至资本的建构主义叙事——即将奇点视为一种社会建构或者文化与资本的叙事——而充满争议的话,那么在ChatGPT被热议的今天,奇点有可能将褪去附加在它身上的一切价值负载,实现华丽转身。从这个意义上说,2023年将是人工智能奇点的一个重要转折点。

在这种情况下,人们将不得不严肃对待奇点主义者在多年前提出的奇点假设。从技术的角度看,奇点临近的核心标志是超级智能(superintelligent)的出现,也就是说远远超出人类一般水平的智能的出现。在库兹韦尔等奇点主义者看来,超级智能是必然的,它以技术的加速发展或者指数级发展这一事实为依据。关于技术的加速发展是否会导致“智能爆炸”,学术界始终存在争议,当然也不在本文的讨论范围之内。相反,本文关注的焦点是,如果人工智能奇点——学术界通常称之为技术奇点(Technological Singularity)——必然会到来的话,它将满足什么条件?以什么方式实现?著名哲学家大卫·查尔莫斯(David J. Chalmers)在一篇长达50多页的论文中对此进行了详细的哲学论证[7]。尽管作者的目的是将奇点及其相关的哲学问题“介绍给学术哲学家和科学家”[8],然而在哲学界似乎并没有引起很多关注。本文将在重构查尔莫斯对奇点的哲学论证的基础上,通过对怀疑主义者的回应思考奇点在哲学上的可能性。具体而言,笔者将提出超人类主义导向和后人类主义导向的人工智能奇点,进而拓展查尔莫斯对奇点的哲学论证,弥补他的不足,深化哲学对奇点的讨论。

一、奇点与奇点的哲学论证的前提

自从数学和物理学中的“奇点”概念被引入到社会领域,关于奇点的讨论便如雨后春笋般出现在互联网以及各种论坛当中,除了人们经常讨论的技术奇点之外,还有经济奇点、文化奇点、宇宙奇点等概念。另外,关于奇点的论证也是多方面的,有来自纯粹科学理论的论证,如马克斯·莫尔(Max More)的负熵主义(Extropianism)[9],也有来自技术发展的论证,如库兹韦尔的加速回归理论[10],当然还有社会经济学的论证,而每一个不同方面的论证都伴随着相应的质疑。因此在讨论关于人工智能奇点之前,首先需要界定清楚奇点的内涵及其论证方式。

在当代的奇点讨论中,技术奇点是一个外延十分广阔的概念,它可能涉及到当代所有的技术以及各种不同技术之间的相互协作。不过宏观上,根据阿姆农·伊顿(Amnon H. Eden)等人,奇点假设存在两条不同的路径,一条是机器智能本身的“单一”进化,即从普通的人工智能(又称之为窄人工智能或者专用人工智能)发展到超级人工智能;另一条是人类在技术条件下的复杂进化,即在基因编辑、纳米技术、生物工程等技术的帮助下人类对其生物局限的克服和超越[6]。笔者将这两条路径分别称之为机器增强(Machine enhancement)和人类增强(Human enhancement),从奇点的角度讲可以分别称之为智能奇点和生物奇点。学术界通常讨论的技术奇点大多指智能奇点,因为一方面在一些学者看来前者比后者更容易实现[11],另一方面智能奇点在社会文化以及伦理上的限制较少,而生物奇点不仅在技术上难度比较大,而且因为存在很多文化以及伦理风险而被限制。查尔莫斯进行的关于奇点的哲学论证是智能奇点。

在奇点主义者看来,奇点是一个严格的科学与技术概念,甚至是可以用数学公式和曲线严格预测的历史事件[12],这意味着对于奇点的论证是一个科学与技术命题。如果真是这样的话,那么在什么意义上哲学能够参与到奇点的论证当中呢?查尔莫斯在他的论证中并没有详细说明这个问题,但这是至关重要的。笔者认为,对奇点的哲学论证意味着一种悬置科学规律以及技术发展现状的抽象化的思维过程,它从纯粹理论的角度分析了如果存在智能奇点,那么这种奇点在抽象的层面上应当满足什么条件。因此,对奇点的哲学论证实际上是对奇点的必要条件的论证,而不是充分条件的论证,在这个过程中必然会悬置其他相关的条件,这是哲学论证必须付出的代价,因而是有缺陷的。但它的重要意义就在于它从理论的层面分析了如果奇点是可能的,它将满足什么基本条件,而这些条件对于其他形式的论证具有参考意义,因而可以适用于其他形式的论证。实际上查尔莫斯在对智能奇点的论证之前以及整个论证过程中已经对这种哲学论证做出了一定的限制,这些限制如下:

(1)哲学预设:①存在智能(Intelligence)这样的东西,并且在不同形式的智能(如人类智能和机器智能)之间能够进行比较,即假设存在一种智能量度,它能“为任意系统分配智能值”[7]。②在能够被量化的智能当中,主要存在四种形式的智能:HI,即人类平均水平的智能;AI,达到或超过人类水平的人工智能;AI+,高于人类水平的人工智能,准确来讲是比最聪明的人类更聪明的智能;AI++,即超级智能(superintelligence),远远超过人类智能的人工智能。

(2)限制条件:①时间变量问题,在查尔莫斯看来,时间变量的精确值不太重要,比如出现超级智能的“很久之后”(before too long)等时间限定既可以指几十年之内,也可以指几个世纪之内 ;②不考虑击败者(defeaters),即任何能够阻止智能系统发展的外部因素,比如大灾难以及伦理与政策的限制。

(3)技术前提:人工智能面临的主要技术问题来自软件而非硬件方面,也就是说,衡量能够模拟并超过人类智能的核心问题是能否设计出相应的算法而非硬件条件

值得注意的是,在这些假设中,针对关于是否存在一般意义上的智能(General intelligence)问题,查尔莫斯做了补充论证。一般的质疑认为这种能力并不存在,即便存在,也不是单一的,因为现实中人的智能总是表现为某些具体的能力。而在一些学者看来这种对智能的定义是人类中心主义的[13]。面对这一问题,查尔莫斯认为可以在不假设存在一般智能的情况下论证超级智能,即用相关的关键概念进行代替。为此他又重新进行了假设,用与认知能力(cognitive capacity)相关的一些概念取代了智能:①G表示能够自我放大的认知能力,也就是说这种能力的增加与制造具有该能力的系统的能力成比例的增加同步;②我们能够创造出能力G大于我们自身能力的系统;③H表示我们所关心的一些能力,而H的增加总是由G的增加所导致的。查尔莫斯认为现在可以在去除智能概念的情况下用G和H代替,二者具有相关性,但分别指向了机器的认知能力和人类所关心的能力,比如前者可以指机器的编程能力,而后者可以指推理能力,二者是相关的,但不必直接相关。这样代替的一个好处就是,在一般的认知上人们之所以关心人工智能奇点是否到来,关键是认为人工智能在人类所关心的某些能力上会比人类更强,比如计算能力、科学研究的能力、制造武器的能力、管理的能力(这些能力就是H)。但这些能力本身是无法自我放大的,因此无法用来衡量智能的增长。不过人工智能并不会直接针对这些能力,相反衡量它的增长水平的是G,比如机器的编程能力的增长(G)在客观上会导致推理能力的增长(H)。这样一来,就可以在悬置智能的假设的情况下讨论智能奇点的问题。当然为了讨论的方便,下文中仍然使用智能概念,不过在人工智能中它表示的是G而不是H

二、查尔莫斯关于人工智能奇点的哲学论证

在查尔莫斯看来,人工智能奇点是否会出现取决于在可量化之后的智能系统中——排除击败者以及不考虑时间变量——能否从AI发展到AI++,也就是说最终取决于AI++是否可能。简单来说,查尔莫斯的论证如下:

前提1:不久之后将会存在AI;

前提2:如果存在AI,那么很快将会存在AI+;

前提3:如果存在AI+,那么很快将会存在AI++;

前提4:因此,在不久之后,在没有击败者的情况下,将会存在AI++。

在这个论证中,前提1被称为等价前提,即至少存在与人类智能等价的AI;前提2是扩展前提,即AI将很快扩展到AI+;前提3为放大前提,即AI+将很快被放大到AI++。

1. 等价前提:AI如何存在

等价前提本身也是一个论证,它论证了与人类智能水平相当的AI的存在。它有两种形式或者两种不同的路径,一种是模拟论证(emulation argument),即人类大脑可以被近似地视为一台机器,人工机器可以对其内部的流程做出模拟;另一种是进化论证,即如果认为人类智能是进化的结果,那么人类也能够发展出这样的智能。

模拟论证如下:

(1)人脑是一台机器;

(2)不久之后我们将有能力模拟这台机器;

(3)如果我们模仿这台机器,就会有AI;

(4)因此,在不存在击败者的情况下,不久之后就会有AI。

在这个论证中,(1)来自于生物学的成果,即身体的每一个器官都可以视为一台机器,大脑也不例外;(2)根据的是任何机器都可以通过任意紧密地模拟微物理过程来被模拟,(3)则是对AI的定义,即如果能够模拟人的大脑,那么人类的行为模式也将能够被模拟。当然,这些前提面临很多质疑,对(1)的质疑有:大脑不一定是能够运算的机器,情感、意识等也是智能的要素;人类不一定能够模仿它,即便能模仿,也不一定意味着人工智能。面对这些可能的质疑,查尔莫斯认为大量的证据表明大脑是一个机械过程,甚至大脑的心理过程也遵循因果关系,因此大脑是可以被模仿的,并且心理过程也能够被模仿,在他看来如果一个智能系统能够模仿人的外部行为以及行为的内部结构,那么它也就能模仿人的心理过程。

等价前提的第二个论证是进化论证:

(1)进化产生了人类水平的智能;

(2)如果进化产生了人类水平的智能,那么我们也能产生人工智能;

(3)没有击败者,就会有人工智能。

进化论证的核心是认为人类智能的水平并不是某种先在的超级智能或者超自然的神所赋予的,而是在进化中产生的,因此这种智能水平是能够被模仿的,这意味着通过大脑仿真(brain emulation)、人工进化、直接编程以及机器学习等途径能够模拟人类智能。在这方面查尔莫斯认为最有可能的是直接编程(direct programming),即直接撰写人工智能的程序,这一点似乎被今天流行的ChatGPT所证实。

2. 扩展前提:从AI到AI+

扩展前提表明,如果与人类智能水平相当的AI是可能的,那么在不久的将来,超出这种水平的智能,即AI+也将是可能的,它依赖于信息技术的进步。具体论证如下:

(1)如果有AI,AI将通过可扩展的方法产生;

(2)如果AI是通过一种可扩展的方法产生的,我们将有能力扩展这种方法;

(3)扩展这种方法产生的AI方法将产生AI+;

(4)如果没有击败者,如果有AI,不久之后就会有AI+。

从AI到AI+的论证依赖于扩展方法(extendible method),查尔莫斯认为这是一种容易改进的方法,通过这种方法可以产生更智能的系统。因此在这个论证中关键是第一个环节,即通过扩展方法产生的AI。人类智能的产生方式是生物繁衍,但生物繁衍并不具有可扩展性,比如父母的记忆不能扩展到孩子身上。查尔莫斯认为大脑模拟也不具有扩展性,因为简单地模拟大脑并不能产生更智能的系统——当然它可以加速AI+的发展,比如硬件系统的升级会加速模拟的效率。在查尔莫斯看来,具有扩展性的方式是直接编程和机器学习。比如在编程中,人工智能工程师可以通过不断改进算法程序而提升智能水平,通过不断的提升,从AI到AI+将是可能的,当前人工智能当中的深度学习可以被认为是这种扩展方法的重要体现。当然,这一论证可能面临这样的质疑,即要么认为我们处于一个智能水平的极限,即在一定的空间内人类的智能处于最大值,要么人类扩展智能的能力有限,但这种质疑在查尔莫斯看来缺乏合理性。

3. 放大前提:AI++的出现

第一次提出“超级智能机器”(Ultraintelligent Machines)和“智能爆炸”(Intelligence explosion)的计算机科学家欧文·约翰·古德(Irving John Good)曾断言,如果人类能够设计出超过人类智能的机器,那么超出人类智能的机器能够设计出更智能的机器——因为设计这样的机器本身就是这种智能的体现,而一旦如此,将会迎来“智能爆炸”,在这个时候“人类需要做出的最后一项发明就是第一台超级智能机器”[14]。查尔莫斯认为放大前提正是古德在这里对超级智能机器的论证,他将这一论证予以形式化。

他假设存在一个AI+,然后规定AI1是第一个AI+,AI0是它的创造者(人类或机器),在这种情况下AI1将是比任何创造它的AI+更智能。假设δ是AI1和AI0之间的智力差异的最小值,也就是说,如果一个智能系统比另一个智能系统的智能差异值大于δ,那么意味着前者比后者更智能。然后再规定AIn+1是由人工智能创造的人工智能,n > 1。AI++的论证如下:

(1)如果存在AI+,那么将会存在AI1

(2)对于所有的n > 0,如果存在AI n,那么在不存在击败者的情况下,将会存在AIn+1

(3)如果对于n而言,存在AIn,那么将会存在AI++;

(4)如果存在AI+,那么在不存在击败者的情况下,将会存在AI++。

在这里(1)源于定义;(2)根据以下三个主张:①定义主张,即如果存在AIn,那么它就是由AIn−1产生的,并且在智力上比AIn−1要高;②定义主张,即如果AIn存在,那么在没有击败者的情况下,它将表现出创建智能系统的能力;③实质主张,即如果AIn比AIn−1更智能,那么它有能力创建一个比AIn−1能创建的任何系统都智能得多的系统。(3)根据的是如果存在一系列AI系统,其中每个系统都比上一个智能得多,那么最终将会出现超级智能,即AI++。以上的论证表明,AI0在智能水平上处于AI的阶段,而此后的AI1到AIn都属于AI+的阶段,而从AIn到AIn+1则是从AI+到AI++的实质性飞跃。

在这个论证中,查尔莫斯认为最关键的就是前提(2)和主张③,这两个假设(内容是一样的)的核心是认为“智能(或某种类型的智能)的增长总是导致智能系统设计能力的成比例增长”[7],他将其称之为“比例性论题”(proportionality thesis)。这是最能够引起反驳的前提,因为在这里存在一种类似于经济学上边际效益递减的规律,因为当人工智能AIn在n等于某个值上,智力增长的比例与设计更智能的机器的能力的比例并不相称,比如很有可能出现的情况是,AI100的智能比AI99增长10%,而AI101的智能只增加5%,AI102的增加降到2.5%。扩展方法只能保证AIn+1的智能并不比AIn低,但并不能保证AIn所制造的AIn+1的智能更高。可以看到这里的问题在于我们能否创建一种能够进行自我改进(self-improving)的AI系统,即具有能够自我放大智能的能力,因为只有这样才能够在不断制造下一代智能机器的时候其智能水平也成比例提高,换句话说,在从AI+到AI++的过程中,智能增长的边际曲线呈增长趋势——至少保持水平状态。关于智能增长的收益递减问题,查尔莫斯承认这是一个十分严重的障碍,最后他只能诉诸于一种假设,即既然递减趋势是存在的,那么递增的趋势同样是可能的。

在这篇文章中,查尔莫斯还讨论了人工智能奇点与哲学相关的其他问题,比如意识上传中的意识以及人格同一性问题,鉴于与本文关系不大,这里不再分析。在文章的最后,查尔莫斯得出结论,在技术上奇点的可能是存在的。他倾向于支持人工智能奇点,在他看来奇点的主要障碍不是技术上的而是动机方面的,即由于人工智能可能存在的一些风险而被禁止的情况。

三、质疑与查尔莫斯的回应

查尔莫斯长达50多页的文章发表两年后,《意识研究杂志》(Journal of Consciousness Studies)曾组织很多稿件讨论他的观点,其中很多文章提出了质疑。在后来的文章中查尔莫斯也进行了回应。这一节将讨论关于对查尔莫斯的质疑以及他的回应。

第一类质疑针对的是查尔莫斯关于智能的定义。这种质疑认为智能不仅仅是信息处理的问题,而且涉及到一些可能被忽视的其他因素,比如理解、具身(embodiment)和文化[15-17]。对此查尔莫斯的回应是在等价前提中他并没有将智能等同于信息处理的能力,在模拟论证和进化论证中AI可以发展出与人类理解能力相同的能力。而具身和文化的问题涉及到AI的硬件,这些问题只是涉及到资源的消耗以及与周围环境的互动,不构成超级智能的根本障碍。另外,丹尼尔·丹尼特(Daniel C. Dennett)提出了关于智能定义的人类中心主义怀疑,认为关于智能能力的衡量标准都是以人类为中心的,这意味着它会“滑稽地扭曲被衡量的现实”[18]。对此查尔莫斯认为人类中心主义是不可避免的,但它似乎也不构成致命的缺陷,因为这种标准至少可以捕捉到人类所关心的东西;另外即便采用非人类中心主义的标准,争议也仍然存在。

第二类质疑认为,设计一个智能超过人类的系统需要完整的自我认识和完整的认知心理学[19]。关于这一点,查尔莫斯认为人工智能是否需要自我知识和认知目前尚不清楚,很有可能它会走一条与人类智能不同的道路,而这条道路可能不需要这种心理学。

第三类质疑认为,关于奇点是可能的结论太弱,因为在我们周围存在着其他的智能增长来源,如弗林效应(Flynn effect) ,如果任其发展,那么这些因素最终会导致超级智能(AI++)的出现[20]。查尔莫斯认为这种观点忽视了时间因素和人类智商所能增长的极限。在他看来在未来几个世纪内人类智商至多能到达AI+的水平,而无法达到AI++的层次,因为这一过程忽视了人工智能在智能水平上的加速发展。

第四类质疑认为,智能的复杂性会挑战等价前提中的模拟论证和进化论证,也就是说如果大脑足够复杂,那么我们将无法模拟,而进化漫长的时间跨度造成的智能的复杂性也是人工智能无法达到的[21]。关于模拟的问题,安德斯·桑德伯格(Anders Sandberg)等人在一份关于神经生物学的研究报告指出,在几十年内高度复杂性的大脑模拟可能会成功[22]。尽管查尔莫斯对这一预测结果保持怀疑,但并没有否认模拟的可能性,在他看来在本世纪末人类可能很好地模拟单个细胞,而再过一个世纪应该可以模拟神经元中任何地方的结构。当然复杂性在进化论证中比较棘手,因为人工智能能否在自然界几十亿年的智能进化的基础上复制这个过程,对此他并没有充分的证据做出肯定的回答,只是认为不是没有可能。另外,关于进化论证的另一个质疑似乎更棘手,这种观点指出智能进化在宇宙的尺度上似乎很罕见,人类智能的进化可能是个偶然,既然如此,从这种运气中论证人工进化出智能缺乏依据[23]。关于这一点,查尔莫斯表示认同,因为关于人类智能进化的“自我暗示假设”(self-indication assumption)会提高智能进化很容易的理性概率,观察者选择效应并不会因此被削弱。对此他选择了退步,认为进化论证在人工智能的论证上可以扮演次要角色,而主要角色让模拟论证承担。

第五类质疑认为,布林斯爵德(Bringsjord)基于计算理论认为查尔莫斯的论证存在重要缺陷,即图灵机(M2)永远无法达到超级图灵机(M3)的水平,也就是从AI永远无法达到AI++;而人类处在M3级,人工智能被限制在M2,因此人工智能永远无法达到人类的水平[24]。首先,查尔莫斯认为智能系统并不依赖于计算层级(computational class),因此布林斯爵德所说的智能与普遍认为的智能概念有很大差异;其次,如果M3级别的智能在我们的世界中是可能的,那么没有理由否认M2级别的AI不能创造这种智能,因为这里的“创造”只是一种非常狭义上的计算能力,而人工智能很可能会发展出一种非基于计算能力的智能系统。再次,没有理由认为人类处于M3级别,即便承认人类处于M3,也没有理由认为AI一定处于M2。

以上的不同质疑从不同方面对查尔莫斯的论证提出了反驳,这些反驳涉及到人工智能奇点的一些关键假设和命题,很多涉及到具体的技术问题——当然这些技术问题与哲学论证是息息相关的,对于进一步深入思考人工智能奇点具有重要的补充作用。查尔莫斯成功地回应了一些反驳,对另一些反驳的回应则并不令人满意,态度模棱两可。当然这些反驳也不是查尔莫斯能够回应的,因为它取决于具体的技术实践,这是他很难预见的,比如在面对模拟论证的怀疑时,他的反驳只能是一种盖然性的倾向,尽管这并不影响论证的过程,但却直接关系到论证的结论。从这个意义上来看,对于人工智能奇点的哲学论证来说,具体的结论或许不再重要,重要的是论证的过程,在这个过程中,哲学思考的意义就在于它为人工智能奇点的可能性提供了哪些需要满足的条件或者路径,正如他自己所说,“如果有人拒绝承认存在奇点,他们必须清楚自己拒绝的是哪些论据和前提”[8]。这种论证路径使得他在回应很多具体技术问题时只能以模棱两可的态度回应,无法真正解决存在的问题,以至于在一些人看来他的论证证明了太多同时又证明了太少[25]。哲学意义上的论证既给论证本身设定了范围,它从一开始就悬置了很多可能会引起的争论,当然也暗示对这种哲学论证的反驳也将只能限制在哲学的界限之内。

在笔者看来,查尔莫斯论证的局限在于过于具体而不够哲学化,未能从更抽象的角度思考人工智能奇点的可能性。一方面他强调自己的论证是一种哲学论证,但另一方面他又不愿放弃对具体的技术细节的讨论,这样一来既丧失了哲学论证应有的抽象性和深度,也使他难以用哲学的挡箭牌悬置论证过程中的技术问题。鉴于这种情况,笔者将从更哲学的角度进一步思考人工智能奇点的可能性,强化哲学对于人工智能的介入,进而揭示查尔莫斯的缺陷,或者可以说是对查尔莫斯论证的另一种反驳。

四、人工智能奇点的两条路径

从哲学的角度来看,查尔莫斯关于人工智能奇点,亦即超级智能的论证的核心或者最重要的论证是认为“奇点并不依赖于意识或人类智能机器,只要一个AI能够创造出更好的AI,那么这就是所需要的智能爆炸”[26]。一个能够自我改进和自我放大的智能机器是出现超级智能的关键,从AI到AI++的整个过程中超级智能出现的起点就是AI在不经过人类教师参与的情况下能够自我完成智能的升级,即便这个机器不需要从一开始就达到人类智能的地步。尽管这一想法最初由古德提出,但查尔莫斯将其形式化,为论证超级智能及其奇点提供了基本框架。

然而在这个基本框架上,如果从哲学的抽象或者顶层设计的角度来看,关于人工智能奇点的发展,笔者认为存在两条十分不同的路径,而它们的不同直接决定了在通往智能奇点的道路上所面临的困难和需要解决的问题。根据人工智能时代哲学思潮的变化,这两条路径可以分别称之为超人类主义(transhumanism)奇点和后人类主义(posthumanism)奇点。超人类主义和后人类主义是当代关于人工智能发展的两条不同主张,从哲学谱系上看,超人类主义属于人类中心主义,而后人类主义是一个十分模糊的概念,存在人文后人类主义(又称之为哲学或批判后人类主义)和技术后人类主义[27],本文在这里取后者,它属于非人类中心主义的立场 。因此,关于人工智能奇点,可以分为人类中心主义和非人类中心主义的不同路径,它们由于哲学立场的不同,对人工智能的发展持有十分不同的观点,而这将导致人工智能奇点以截然不同的面貌出现。

1. 超人类主义人工智能奇点

超人类主义作为当代哲学思潮的一种立场,延续了西方的进步主义思想,认为可以通过当代人工智能等技术实现自启蒙运动以来人类一直坚持、但由于其生物性限制而始终没有实现的一些价值理想。在超人类主义者看来,可以“通过技术手段彻底改变人类生物、精神和社会状况”[28]41,人类自诞生以来的追求理性、幸福、自由的愿望可以通过人类增强(human enhancement)技术实现,因此超人类主义可以称之为启蒙运动2.0。著名的奇点主义者库兹韦尔正是一个坚定的超人类主义者,在他看来,人工智能技术可以解决人类所面临的一切问题,从而实现人类社会的根本变革,使人类进入到一个新的纪元。

正如在第一节所说的,机器增强和人类增强都可以用来完成超人类主义的哲学目标,只是后者是直接的,前者是间接的。本文所讨论的人工智能奇点,从超人类主义的视角下就是机器增强。超人类主义无疑是人类中心主义的,这意味着在以超人类主义为导向的人工智能奇点上,人类智能是人工智能的最终衡量标准,因为只有发展出类人类的智能,人工智能才能够转变成以人为中心的机器增强,保持人与机器的主客体的不平衡关系,否则人类将一直生活在如何应对人工智能产生的威胁的阴影当中。

从这个角度来看,一直困扰查尔莫斯的关于智能定义的人类中心主义指责,在哲学上便不再成为需要回应的问题——成为问题的只是技术,因为人类中心主义从一开始就是人工智能的哲学立场,只是从后文中我们将会看到,这并不是唯一的立场而已。实际上查尔莫斯正是根据这条路径组织论证的,人类中心主义在他那里之所以成为需要回应的问题——在笔者看来他对丹尼特等人的质疑的回应并不令人信服。在他的思维中,人类中心主义似乎是人工智能发展的唯一路径。而这正是查尔莫斯关于智能奇点哲学论证在哲学的意义上最大的缺陷。

从技术上看,超人类主义导向的人工智能奇点面临的问题正是从对智能的人类中心主义的定义所导致的人类智能与机器智能如何建立关联的问题,在查尔莫斯的论证中表现为与人类相关的能力(H)与机器智能(G)之间的关联性问题。尽管查尔莫斯在文章中将这一问题称之为相关性障碍,也注意到这个问题的重要性,但对这一问题的解决远不能令人满意。他只是认为随着G的自我放大,在客观上会导致H的增强,虽然G的自我放大与H的增强方面并不同步,比如前者在放大10%的情况下只能导致后者放大5%。但这里的问题并不是放大或增强的比例问题,而是二者在本体论上如何关联问题。这一问题实际上也是当代人工智能面临的核心问题,在当今大热的ChatGPT上,仍旧以十分明显的方式呈现出来。ChatGPT无疑是今天地球上存在的最智能的机器,但目前面临的问题仍旧很多,比如事实错误:“它提供的信息可能看起来可信,这使得知识渊博的专家很难发现其不准确性,但它最终被证明是不正确的”[29]。核心原因就是它仍旧尚未突破对人类智能的高度还原,而只是以机器智能(计算能力+“全球大脑”数据库+算法)的方式在现象或者行为的意义上对人类智能的高度模拟,但无法理解整个智能过程。

就此而言,可以说超人类主义导向的工智能奇点的必要性条件是从机器到人的巨大跨越,这是一个质性的“惊险的跳跃”,而查尔莫斯论证的从AI到AI++的过程只是一个量化的模型。从这个意义上讲,以ChatGPT为代表的人工智能尚未达到能够宣布奇点提前来临的程度,人类在通往这一奇点的道路上还需要漫长的道路要走。尽管如此,在下面这一点上笔者认同查尔莫斯的观点,即制约这种人工智能奇点的主要障碍不是技术问题,而是人类中心主义哲学立场下的社会与伦理的限制,因为技术只是时间的问题,只要人类中心主义的哲学立场不被动摇,那么永远存在一些外部性的限制因素。

然而这种来自于哲学与文化的限制在当代越来越受到同样是哲学与文化的挑战,它就是非人类中心背景下的后人类主义,而以这种哲学为内核的人工智能在技术设计上必然遵循不同的路径,它或许是实现奇点的弯道超车的重要契机。

2. 后人类主义人工智能奇点

与超人类主义截然相反,后人类主义选择了与人类中心主义不同的道路,即非人类中心主义甚至是反人类中心主义的立场。后人类主义者不再承认人类的主体地位,或者认为人类至少不是唯一的主体,因此后人类主义开始对长期以来主导主流叙事的人类中心主义的话语模式以及二元论的价值立场进行解构,比如人与非人、自然与社会、男性与女性、文明与进步,认为这种主流叙事只是西方的一种“意识形态结构”[28]42,而对这种结构的解构成为后人类主义的核心任务。从哲学谱系上看,后人类主义“被认为是后现代主义的第二代,它通过对物种主义的理论修正,即某些物种对其他物种的特权,将对人类的解构引向了极端的后果”[30]2。尽管后人类主义的思想根源可以追溯到后现代主义,但正如费尔南多(Ferrando)所说的,作为后现代主义的第二代,后人类主义无疑是当代技术发展催生下的哲学立场,其中人工智能作为真正意义上后于(post-)人类的、存在于现实当中的实在主体——而不是后现代主义者在想象中建构的概念主体——有可能实现智能的真正突破,一些后人类主义者将其称为智人2.0,它将成为地球的下一个主人,而我们应当“退出舞台,留下一个居住着漂亮机器的星球,它们虽然不是完美的天使,但却比我们进步了很多”[31]

当然,从哲学谱系来看,后人类主义更多的是一种伦理立场,与人工智能奇点的路径似乎并没有直接关系。实际上对于后人类主义,目前学术界有十分不同乃至相反的理解,它的哲学谱系也是多样化的。因此,这里需要对后人类主义与人工智能奇点之间的联系做出说明。本文所强调的技术后人类主义实际上与作为后现代主义的直接继承者的人文或批判后人类主义有所不同,更强调它在哲学上对人工智能等技术发展的回应。在这种回应中,它站在非人类中心主义的立场上(人文或批判后人类主义的伦理立场体现在它的反人类中心主义上)思考技术发展的可能路径,这使其与人类中心主义的超人类主义区分开来,在伦理立场上采取中立的态度,因而是一种技术态度,是对人工智能等技术发展的不同思考。非人类中心主义的技术态度意味着对人工智能的理解摆脱了对人类智能的参考,从更宏大的背景出发思考智能问题,它强调人类智能或许不是宇宙中唯一的高级智能形式,而可能存在其他形式的智能。

后人类主义导向的人工智能无论从哲学立场还是从技术设计来看都遵循着与其对立面超人类主义完全不同的路径,其核心是机器不再成为人类的附庸,而以独立的主体地位被设计,衡量人工智能水平的图灵测试将失效。这似乎意味着有可能出现人工智能奇点发生史上的弯道超车,因为根据这种哲学立场,人类智能的优先性首先是被否定的对象,这样一来困扰超人类主义导向的人工智能的人类智能与机器智能之间的相关性障碍便不再成为需要克服的难题,一种与人类智能不同的机器智能的独立发展的设计思路将有可能获得支持。正如著名人工智能研究专家波斯特洛姆所说:“人工智能不需要模仿人类的心智。事实上,人工智能极有可能与人类的心智不同。我们应该期待它们会有与生物智能结构非常不同的认知结构……人工智能的目标体系可以从根本上与人类的目标体系相异。”[32]37——非人类中心主义立场下的后人类主义者无疑是这种发展思路的坚定拥趸。而一旦这样的方案被付诸实践,那么独立发展的机器智能将有可能通过不断的自我放大而率先实现超级智能,进而达到奇点,因为它不必局限于对人类智能的模仿,但当超级智能实现时,它也能够完成对人类智能的“升维打击”。

与超人类主义导向的人工智能在技术上先于文化不同,后人类主义导向的人工智能虽然在技术上尚未得到重视,但在社会文化上似乎已经迈出了关键的一步,一些国家已经承认人工智能的独立地位,并授予其公民身份。比如在2017年,由汉森机器人公司(Hanson Robotics)设计的机器人索菲亚(Sophia)在沙特获得公民身份,这意味着索菲亚作为一个具有独立人格权的公民享有与人类相同的权利和义务[33]。不管这背后出于什么目的,但从哲学上来看,这无疑是后人类主义的胜利,不管以其为导向的人工智能奇点何时降临,人类已然生活在后人类纪元,这也就是人工智能导致的伦理问题“日益紧迫”[34]2的原因。但对于后人类主义者来说,所谓的伦理问题似乎也只是一种主流叙事下的意识形态。

既然在哲学上后人类主义为这种导向的人工智能及其奇点的发生铺平了道路,那么制约其发展的因素就是技术了。对于后人类主义导向的人工智能来说,面临的核心问题就是这种不必模仿人类智能的机器智能如何可能。从目前人工智能的现实来看,机器智能无疑在根本上与人类智能是不同的,但这种不同显然不是后人类主义者设想的智人2.0与智人的不同,也不是超级智能与人类智能存在的不同,因为目前的机器智能在水平上远远达不到人类智能。不管这种机器智能在本体论上如何存在,但如果作为超级智能的话,那么至少在智能水平上要能够超过人类水平,即机器智能具备人类智能所具备的能力,但人类智能无法拥有机器智能所具备的能力。如何设计这种智能,从目前来看,至少仍旧是人类需要完成的工作,而当人类设计出能够自我放大的智能机器的那一天,也可能是人类退出历史舞台的那一天。

五、结 论

本文在重构查尔莫斯关于人工智能奇点哲学论证的基础上,从哲学的角度重新思考了查尔莫斯的论证。毋庸置疑,查尔莫斯的论证在哲学上提供了关于人工智能奇点何以可能的基本框架,这一框架能够覆盖笔者所区分的两类人工智能奇点,只是在这个框架内面临各自的问题。这是查尔莫斯的重要贡献。然而从哲学的立场来看,重要缺陷是对自身所持有的人类中心主义的立场缺乏明确的自觉,这使他未能提供一个完整的关于人工智能奇点的哲学论证。鉴于这种缺陷,本文在第四部分基于当代哲学的人类中心主义和非人类中心主义的不同立场,区分了超人类主义导向和后人类主义导向的人工智能奇点,完善了查尔莫斯的论证框架。至于两类人工智能奇点哪一个有可能率先实现,笔者在这里无法做出明确的回答,但可以肯定的是,在外部性条件支持的情况下,两类奇点最终都有实现的可能。而在那个时候,人类面临的很有可能除了人与机器之间的矛盾,还有人类内部的超人类主义者和后人类主义者的矛盾,相较而言后者似乎是更需要引起警惕的问题,就像 《三体》中在三体文明尚未到来之前地球三体组织与其他人类的斗争。

1查尔莫斯在这方面持保守态度,即超级智能的出现不会像一些奇点主义者乐观预测的几十年之内,而是在几个世纪之内,但相比于悲观主义者,他认为在未来大概率会出现超级智能。

② 在这方面查尔莫斯的前提很可能是错误的,因为在现实情况中硬件同样具有重要的作用,尤其对于ChatGPT来说,它的成功在很大程度上恰恰基于大规模的运算能力,其所依赖的正是作为硬件的芯片的运算水平,而背后的算法模式(神经网络模型)很早就已经提出,只是在近年来随着芯片的运算能力不断提高以及互联网发展提供的海量数据而获得了发挥的空间。

③ 当然这样一来导致的问题就是G和H之间的相关性问题,他称之为相关性障碍(Correlation obstacles)。对此查尔莫斯承认这是一个悬而未决的问题,因为二者并没有必然关联,比如编程能力的提高并不必然导致与人类相关的某些能力的提高。尽管他认为G的自我放大的能力与H没有必然关系,但G的增长会导致创造H的能力的增长,因此相关性是可以建立起来的。

④ 弗林效应指的是20世纪世界很多地方智商(IQ)测试结果逐渐提升(每10年提升3分)的现象,它由美国人詹姆斯·弗林(James R. Flynn)在上世纪八十年代首次发现,故以他的名字命名。

⑤ 技术后人类中心主义通常与超人类主义联系在一起,但从哲学谱系上来看,二者存在不同,前者是非人类中心主义的(人文后人类主义则是反人类中心主义的),后者则属于人类中心主义范畴。

参考文献
[1]
Aljanabi M, Ghazi M, Ali A H, et al. ChatGpt: Open Possibilities. Iraqi Journal for Computer Science and Mathematics, 2023, 4(1): 62-64.
[2]
Chatterjee J, Dethlefs N. This New Conversational AI Model Can Be Your Friend, Philosopher, and Guide ··· and even Your Worst Enemy. Patterns, 2023, 4(1): 1-3.
[3]
雷·库兹韦尔. 奇点临近: 2045年, 当计算机超越人类. 李庆城, 董振华, 田源译. 北京: 机械工业出版社, 2011.
[4]
Vinge V. The Coming Technological Singularity: How to Survive in the Post-human Era. Science Fiction Criticism: An Anthology of Essential Writings, 1993: 352−363.
[5]
Ulam S, Kuhn H W, Tucker A W, et al. John von Neumann, 1903-1957. In Fleming D, Bailyn B(eds.). The Intellectual Migration: Europe and America, 1930-1960. Cambridge: Harvard University Press, 2013.
[6]
Eden A H, Steinhart E, Pearce D, et al. Introduction to: Singularity Hypotheses: A Scientific and Philosophical Assessment. In Eden A H, Steinhart E, Pearce D, et al. (eds.), Singularity Hypotheses: A Scientific and Philosophical Assessment. New York: Springer, 2012.
[7]
Chalmers D J. The Singularity: A Philosophical Analysis. Journal of Consciousness Studies, 2010, 17(9-10): 7-65.
[8]
Chalmers D J. The Singularity: A Reply. Journal of Consciousness Studies, 2012, (7-8): 141-167.
[9]
More M. The Extropian Principles 2.6. Alamut: Bastion of Peace and Information, 1998-03-05. https://www.alamut.com/subj/ideologies/manifestos/extropian_principles.html. [2023-03-22]
[10]
Kurzweil R. The Law of Accelerating Returns. The Kurzweil Library + collections, 2001-03-07, http://www.kurzweilai.net/the-law-of-accelerating-returns. [2023-01-04]
[11]
Castillo M. The Omega Point and Beyond: The Singularity Event. American Journal of Neuroradiology, 2012, 33(3): 393-395. DOI: 10.3174/ajnr.A2664.
[12]
Sandberg A. An Overview of Models of Technological Singularity. In More M, Vita-More N. (eds). The Transhumanist Reader: Classical and Contemporary Essays on the Science, Technology, and Philosophy of the Human Future. New York: John Wiley & Sons, Inc, 2013.
[13]
Wang P, Liu K, Dougherty Q. Conceptions of Artificial Intelligence and Singularity. Information, 2018, 79(9): 1-15.
[14]
Good I J. Speculations Concerning the First Ultraintelligent Machine. Advances in Computers., 1966, 6: 31-88.
[15]
Greenfield S. The Singularity: Commentary on David Chalmers. Journal of Consciousness Studies, 2012, 19(1-2): 112-118.
[16]
Heylighen F. A Brain in a Vat Cannot Break out: Why the Singularity must be Extended, Embedded and Embodied. Journal of Consciousness Studies, 2012, 19(1-2): 126-142.
[17]
Nunn C. More Splodge than Singularity?. Journal of Consciousness Studies, 2012, 19(7-8): 7-8.
[18]
Dennett D C. The Mystery of David Chalmers. Journal of Consciousness Studies, 2012, 19(1-2): 86-95.
[19]
Aleksander I. Design and the Singularity: The Philosopher’s Stone of AI?. Journal of Consciousness Studies, 2012, 19(7-8): 8-13.
[20]
Hanson R. Meet the New Conflict, Same as the Old Conflict. Journal of Consciousness Studies, 2012, 19(1-2): 119-125.
[21]
Plotnitsky A. The Singularity Wager: A Response to David Chalmers’ “The Singularity: A Philosophical Analysis”. Journal of Consciousness Studies, 2012, 19(7-8): 7-8.
[22]
Sandberg A, Bostrom N. Whole Brain Emulation: A Roadmap. Technical Report #2008-3. https://www.fhi.ox.ac.uk/brain-emulation-roadmap-report.pdf. [2023-02-12]
[23]
Shulman C, Bostrom N. How Hard is Artificial Intelligence? Evolutionary Arguments and Selection Effects?. Journal of Consciousness Studies, 2012, 19(7-8): 103-130.
[24]
Bringsjord S. Belief in the Singularity is Logically Brittle. Journal of Consciousness Studies., 2012, 19(7): 14.
[25]
Prinz J. Singularity and Inevitable Doom. Journal of Consciousness Studies, 2012, 19(7-8): 77-86.
[26]
van der Vleuten L. Philosophical Perspectives on the Singularity. 2014-03-14. http://arno.uvt.nl/show.cgi?fid=135227. [2023-01-15]
[27]
Cole-Turner R. Posthumanism and Transhumanism. In Schweiker W (ed.), Encyclopedia of Religious Ethics. John Wiley & Sons Ltd. , 2022.
[28]
Lindberg S. On Prosthetic Existence: What Differentiates Deconstruction from Transhumanism and Posthumanism. In Jorion P (ed.), Humanism and its Discontents: The Rise of Transhumanism and Posthumanism. Cham: Palgrave Macmillan, 2022.
[29]
Borji A. Quintic AI, A Categorical Archive of ChatGPT Failures. arXiv preprint arXiv: 2302.03494 (2023).
[30]
Ferrando F. Philosophical Posthumanism. London and New York: Bloomsbury Academic, 2019.
[31]
Dietrich E. After the Humans are Gone. Journal of Experimental & Theoretical Artificial Intelligence, 2007, 19(1): 55-67.
[32]
尼克·波斯特洛姆. 超级智能: 路线图、危险性与应对策略. 张本伟, 张玉青译. 北京: 中信出版社, 2015.
[33]
Weaver J F. What Exactly Does It Mean to Give a Robot Citizenship? https://slate.com/technology/2017/11/what-rights-does-arobot-get-with-citizenship.html. [2023-02-13]
[34]
Müller V C. New Developments in the Philosophy of AI. In Müller V C (ed.), Fundamental Issues of Artificial Intelligence. Switzerland: Springer International Publishing, 2016.
ChatGPT and the Singularity Is Near: On the Chalmers’ philosophical argument for the singularity of artificial intelligence
SU Chen-sheng     
School of Philosophy, Renmin University of China
Abstract: ChatGPT's global buzz has brought the singularity issue back into the limelight, as if the singularity that could change human history came early. The famous philosopher Chalmers makes a philosophical argument for the emergence of superintelligence and thus the singularity in the field of artificial intelligence. Without a defeater and ignoring the time factor, he argues that the AI singularity is possible because after humans create AI that equivalent to human intelligence and AI+ that exceeds the average human intelligence, the AI+ will create superintelligent AI++ that is more intelligent than itself through its ability to improve and amplify itself. Although there are many challenges to Chalmers' arguments, they all go beyond the boundaries of philosophy. From a philosophical perspective, the AI singularity will emerge in two diametrically opposed paths, which are transhumanist-oriented and posthumanist-oriented AI singularities, and the distinction between these two types of singularities expands Chalmers' philosophical arguments about the AI singularity.
Keywords: singularity    artificial intelligence    superintelligence    transhumanism    posthumanism    

作者简介:苏晨生,中国人民大学哲学院博士研究生。研究方向为技术哲学、人工智能伦理学。

1查尔莫斯在这方面持保守态度,即超级智能的出现不会像一些奇点主义者乐观预测的几十年之内,而是在几个世纪之内,但相比于悲观主义者,他认为在未来大概率会出现超级智能。

2在这方面查尔莫斯的前提很可能是错误的,因为在现实情况中硬件同样具有重要的作用,尤其对于ChatGPT来说,它的成功在很大程度上恰恰基于大规模的运算能力,其所依赖的正是作为硬件的芯片的运算水平,而背后的算法模式(神经网络模型)很早就已经提出,只是在近年来随着芯片的运算能力不断提高以及互联网发展提供的海量数据而获得了发挥的空间。

3当然这样一来导致的问题就是G和H之间的相关性问题,他称之为相关性障碍(Correlation obstacles)。对此查尔莫斯承认这是一个悬而未决的问题,因为二者并没有必然关联,比如编程能力的提高并不必然导致与人类相关的某些能力的提高。尽管他认为G的自我放大的能力与H没有必然关系,但G的增长会导致创造H的能力的增长,因此相关性是可以建立起来的。

4弗林效应指的是20世纪世界很多地方智商(IQ)测试结果逐渐提升(每10年提升3分)的现象,它由美国人詹姆斯·弗林(James R. Flynn)在上世纪八十年代首次发现,故以他的名字命名。

5技术后人类中心主义通常与超人类主义联系在一起,但从哲学谱系上来看,二者存在不同,前者是非人类中心主义的(人文后人类主义则是反人类中心主义的),后者则属于人类中心主义范畴。