文章快速检索     高级检索
  科学与社会  2021, Vol. 11 Issue (2): 79-93  
0

引用本文 

吴帮乐. 人工智能终结了个人隐私吗?——从《咖啡机中的间谍:个人隐私的终结》谈起[J]. 科学与社会, 2021, 11(2): 79-93.
WU Bang-le. Does the Artificial Intelligence End Personal Privacy?——Starting with Spy in the Coffee Machine: The End of Personal Privacy [J]. Science and Society, 2021, 11(2): 79-93. DOI: 10.19524/j.cnki.10-1009/g3.2021.02.079.

作者简介

吴帮乐,澳大利亚国立大学公众科学意识研究中心博士研究生。研究方向为科学传播、环境传播

项目资助

国家留学基金委项目(202006360044)

人工智能终结了个人隐私吗?
        ——从《咖啡机中的间谍:个人隐私的终结》谈起
吴帮乐     
澳大利亚国立大学公众科学意识研究中心
摘要: 在万物互联的人工智能时代,隐私问题成为深刻依赖用户个人数据的科技公司讳莫如深的灰色地带,隐私终结危机也成为学界持续关注和广泛讨论的主题。英国学者计算机科学家奥哈拉与沙德博尔特以极具前瞻性的视野在《咖啡机中的间谍:个人隐私的终结》一书中论述了“泛在技术”为人类所建筑的“圆形监狱”,并做出“隐私终结”的论断。基于对该书的阅读,本文从政治经济学和技术哲学批判角度认为:(1)“隐私”是标榜个人自由的虚伪能指,当前隐私问题主要在于商业资本对用户数据的侵入性收集、使用和流通;(2)当前威胁隐私的技术现实是基于数据和算法的人工智能对于隐私的数据化和商品化;(3)当前社会控制机制从“圆形监狱”转向“透明社会”,个体对隐私的让渡标志着资本主义所许诺的主体性自由崩溃瓦解;(4)隐私实质上成为隐秘的生产要素和剩余价值的来源;(5)隐私危机本质上是驱动技术发展的资本逻辑对人类生存活动剩余价值的压榨;(6)将人异化为数据和机器是违背人性的,直面隐私问题意味着面对人的终极需求;(7)隐私终结论是犬儒主义论断,未来隐私场域的斗争将持续存在。
关键词: 人工智能    隐私    透明社会    泛在技术    
中图分类号: C913           文献标识码: A
DOI: 10.19524/j.cnki.10-1009/g3.2021.02.079
一、问题的提出

20世纪末到21世纪初,世界互联网技术突飞猛进,电子计算机技术长足、快速发展。数字技术的快速发展实现了对人们生产生活的全方位渗透,人工智能从被提出到今天逐渐实现了从理论构想到现实应用的发展。数年内,人们渐渐习惯并依赖于在工作、生活、学习中使用各种能够实现互联功能的小型化、便携式电子设备,网约车出行、互联网服务购买与售卖、外卖送餐、生物识别等新兴行业与领域迅速发展成为当代经济的新元素。几乎所有人都憧憬着新时代的到来,不自觉地享用着种种便利并被牢牢吸附在这些领域当中,却在很大程度上低估和忽视了这些技术带来的另外一面−部分或全部地让渡隐私,使个人隐私暴露在大数据算法的视野之中。这种记录极具侵略性,以至于人们无法真正弄明白被侵犯了多少隐私,人类社会正在进入“监视资本主义时代”。于是,在社会上和学界中催生出一种观点认为,隐私将要终结。

今天隐私或隐私权已经终结了吗?对此,英国学者吉隆·奥哈拉(Kieron O’Hara)和奈杰尔·沙德博尔特(Nigel Shadbolt)早在2008年就出版了《咖啡机中的间谍:个人隐私的终结》一书。这是一部具有及时性、预见性和敏锐洞察力的著作,聚焦的主题是当时未引起学界普遍关注的新领域、新现象。该书出版距今已十年有余,两位作者剖析的不少问题已然成为现实并且在继续恶化,所以实有必要重新回顾这部具有先见性的著作。奥哈拉和沙德博尔特在书中关注了现代技术如何对人们的生活和自由进行影响,做出了科技发展将对个人隐私完全侵蚀的论断,指出技术发展在很大程度上决定了社会的发展方向与进程,受到全人类普遍关切的隐私已然被现代技术冲击得支离破碎。

当前,国内关于人工智能时代下的隐私研究没有形成一个具有普遍意义的分析人工智能时代隐私危机的理论框架,没有涉及到对人工智能时代隐私危机本质逻辑的探讨。本文延续了奥哈里和沙德博尔特对这个问题的讨论,试图从技术哲学和政治经济学的角度对隐私危机的根源及其是否终结进行剖析和解答。本文首先将从隐私本身、承载隐私的技术中介、隐私的主体三个方面对书中的观点进行回应,试图揭示人工智能时代隐私危机背后的本质逻辑,而后对人工智能语境下的隐私本质、技术本质逻辑和人的主体性进行批判性重构,认为“隐私终结论”是技术决定论者的犬儒决断,关于隐私的争斗将一直存在。

二、“隐私”内涵与其嬗变

奥哈拉和沙德博尔特认为,作为一个哲学、社会学概念,隐私一直处于“过渡阶段”,在不同的时间、对不同的人而言都有着不同的含义,所以他们拒绝为隐私“这样一个难以捉摸的概念”做一个绝对的定义,只想要探讨在“隐私”失去价值、道德上的绝对性时,如何协调各方的利益。但这样的做法会使隐私的内涵与边界模糊不清,且难以具体地回答当前算法与大数据使得隐私的内涵发生了怎样的演变。本文梳理了自由主义者和批判政治经济学理论中“隐私”内涵的论述,并具体探讨了“隐私”的边界问题。

1. 隐私的本质内涵

“隐私”的兴起最初与私有财产的建立密切相关,彼时个人隐私比私有财产更加神圣不可侵犯。学界对于隐私问题的关注起始于工业革命对社会的改造与革新,隐私的讨论往往伴随流言、窃听、监视等问题。技术的发展引发了深刻的经济、政治和社会变迁,隐私日益变成全球性的重要关切,[1]4逐渐被各国宪法确立为一项基本权利。[1]2

自由主义者认为,隐私是关系到人性本质的权利和需要。依据洛克(John Locke)的观点,个人权利拥有至高无上性,而“隐私”是一种将自己与他人区分开的个人权利。布灵顿·摩尔(Barrington Moore)认为,人们对于亲密关系、独处、向某个群体或社群隐藏观点与行为的需要是普遍的。[2]霍尔姆斯(Robert Holmes)认为,隐私是明确或含蓄地不向他人开放自己生活领域的自由。[3]总体而言,自由主义者认为在不触及道德与法律规范的情况下,隐私作为一种物理和精神层面的双重私域,其本质仍然是个体保持独特性、实现自我认同的根基。

但是,卡尔·马克思(Karl Marx)和弗里德里希·恩格斯(Friedrich Engels)对自由主义的隐私理论进行了批判,认为不存在纯粹的个体,人是社会性的,这种个人主义会导致损害公共利益的利己主义、社会财富分配不公等问题。尤尔根·哈贝马斯(Jürgen Habermas)认为,“消费”“娱乐”等私有领域是大众内在生命的外化以及“隐私”的关键,它们保证了劳动力的再生产,使其具有可剥夺性。[4]从而代表资产阶级利益的自由主义者所提出的隐私的概念被解构,这并不否认“隐私”这一能指之下所指本体的存在,而是揭示出自由主义建构的“隐私”能指实际上也是资本主义劳动力剥削结构中的隐蔽一环。

2. 算法与大数据所带来的隐私边界嬗变

奥哈拉和沙德博尔特笼统地探讨了界定隐私的难题,并没有对当今算法与大数据时代中的隐私边界做出具体讨论。他们认为,技术不断发展的今天,隐私的界定已然十分的困难,因为隐私的边界会根据语境的变化(如社会文化、国别、意识形态、科学技术等)而发生变化,界定隐私的边界会触及很多矛盾与争议,因为隐私并非绝对的善,它是中性的。保护隐私通常可以使一部分人收益,也可能使一部分人受到伤害。[5]21克里斯蒂安·福克斯(Christian Fuchs)认为自由主义者盲目宣扬的“隐私崇拜”(Privacy Fetishism)并不能解释隐私在现代资本主义社会所扮演的角色,只有在语境化隐私(contextualize privacy)之后才能为隐私给予界定,如是否应该保护哪些人的哪些隐私。[4]

梵·迪克(Van Dijk)在论述网络社会时将隐私界定在了三个层面:身体的隐私(physical privacy)、关系的隐私(relational privacy)和信息的隐私(informational privacy)。[6]丹尼尔·尚兰(Daniel Solove)将当今的隐私问题主要界定在了信息隐私层面。[1]11实际上,在以海量数据为深度学习基础的人工智能时代。“隐私”和“数据”、“信息”这些概念的区别在当前的社会实践中十分模糊不清,甚至在法律上逐渐趋同。[7]从这一层面来说,隐私所指的具体内容已经“泛化”为关乎个体的所有云端生存痕迹。

故与其从目前隐私的数据形态来界定隐私的边界,不如从数据收集和使用层面来界定隐私问题产生的边界。进一步来讲,智能数据时代隐私问题并不是产生于基于公共福利与社会治理层面的数据采集与监管,而是基于损害个体及公共利益的侵入性的商业性数据采集以及对这些数据的使用和流通。

三、终结隐私的“泛在技术”和人工智能

在智能互联时代,隐私的承载媒介不再是人、声音、相机、书信文字等本身,而是数字、代码、平台、机器,更直接来说就是技术。在书中,奥哈拉等人认为,改变隐私内涵、让隐私终结的技术本质是“泛在计算技术”(Ubiquitous computing technology)或“泛在技术”(Ubiquitous-technology)。[8]本文认为,当前在“泛在技术”尚未完全形成的现实情形下,侵犯隐私最根本的核心来源于以大数据为基础的机器学习过程,而这一过程的最终结果便是人工智能。

1. 泛在技术与其对隐私的威胁

泛在,即无所不在。“泛在技术”通常是指该技术不引人关注地嵌套进人们的衣食住行当中,并可以随时发送和接收来自其他对象的各种信息,一方面该技术肉眼可见性极低,另一方面它又可以为用户提供非常便易的捕获信息、通信、检索、发掘等服务。[9]乌维·汉斯曼(Uwe Hansmann)等人认为泛在技术具有四大明显基本特质,即去中心化、多样化、连通性、简易化。[10]泛在技术广泛受到来自权力部门、商业公司、技术主义者的追捧与支持,其用途主要可概括为三个方面:监视探测、提供信息、混合现实。

奥哈拉和沙德博尔特探讨了泛在技术情境下保护个人隐私的技术性困境。当今主流加密方法有“数据加密标准”(DES)、“高级加密标准”(AES)、基于DES和AES基础的“公钥加密算法”以及数字签名系统。前两者可以通过“暴力手段”予以破解,后两者则容易遭到“中间人”攻击。新近的生物加密与识别技术也引起了广泛的讨论与争端,因为使用该系统的个人身份容易被冒充。智能系统中的任何小型设备遭到入侵或干预,或是“恶意偷窥者”掌握了少数几个装置,便可以对整个系统发起毁灭性的打击。[5]181

总体而言,泛在技术是区别于互联网、物联网的更广泛的概念,是5G、互联网、物联网、人工智能等技术结合运用后达成的一种技术形态。与其说“泛在技术”是一个特定的技术名称,不如说它是奥哈拉等人考虑到技术发展趋势时对于未来的大胆设想,是具有“监视资本主义”特征的一个技术隐喻。

2. “现实人工智能”条件下个人隐私的数据化商品化

正如奥哈拉等人所说,“泛在技术”这一技术隐喻下如何保护隐私还是一个需要逐步探究的问题,而不是亟待解决的现实问题。[5]183本文认为,由算法、大数据与便携植入式设备所建构的“人工智能”技术现实则是当前探究“隐私”的核心切入点。人工智能正在深刻改变着生产关系、社会关系以及普罗大众的日常生活,在与经济政治活动日益融合的过程中,提升了效率但却引发了极其深刻的伦理问题。计算机科学界对人工智能的发展阶段有过从“弱人工智能”(或专用人工智能)、“强人工智能”(通用人工智能)、“超人工智能”的三阶段构想,但是就现在的技术条件而言,“强人工智能”和“超人工智能”离现实应用还有非常远的路要走。“弱人工智能”的典型特征是仅能在非常狭窄的领域内实现对人类智能的超越,并且没有独立的思考能力,从而其对隐私的冲击过程核心动力是来源于背后的资本。

人工智能的现实发展基于大量数据的投入与训练,通过神经网络层次结构模型等具体的应用,使机器具备如同人类一样的决策能力。人工智能无法脱离数据而存在,就像工厂无法脱离机器而存在一样,人工智能的核心是算法,而数据则是基础要素。智能手机、智能汽车、便携式电脑、智能电视、空调甚至是咖啡机,是当代最常见也是人们已然无法避免使用的用户终端,这些终端无一例外的内置了无线通讯计算装置并接入互联网,对人们生活中的偏好兴趣、一举一动进行着无声却有目的的侵入性记录。

机器学习对于数据的渴求要求公众信息能够被记录、保存、获取和传播。虽然尤瓦尔·赫拉利(Yuval Noah Harari)指出,对于数据主义者而言,包括经济增长在内的世间所有的善都来自于信息自由,[11]但信息自由的确存在威胁个体自由的风险。相比于政治极权“老大哥”在看着你的隐喻,“无数小老弟正在看着你”[12]逐渐成为现实。维克托·舍恩伯格(Viktor Mayer-Schönberger)指出,“有史以来,对于我们人类而言,遗忘一直是常态,而记忆才是例外······由于数字技术与全球网络的发展,这种平衡已经被改变······遗忘已经变成了例外,而记忆却成了常态。”[13]舍恩伯格只说对了一部分,因为人类社会的记忆并不是意外,选择性记忆与遗忘一直以来都是权力与资本建构的产物,数字智能经济下隐私已不再是不可侵犯的抽象而神圣之物,个体记忆被驱逐利益的技术逻辑对象化成为了有记忆价值的数据和文本。

延续哈贝马斯的思路,可以发现当前私人领域已然被瓦解终结,在“数据”与“隐私”等同的泛化条件下,所有个体隐私(云端生存数据)都可从私人领域被转移进经济生产的公共领域。资本对于劳动力的剥削演化到了一种极致,数字化的“消费”“娱乐”甚至是“生存”以及产生于这些社会实践过程中的“隐私”,都必然地变作可被交易的、可被剥离于主体性之外的碎片化数据商品。这种现象本质上昭示了在现代社会资本主义中的一个悖论,即利益最大化驱动下所推崇的“操控”、“监视”对“隐私”的损害,与资本主义“私有财产权”的衍生物“隐私权”的互相对立。

四、人工智能社会控制机制演变下的“隐私”与主体性自由

奥哈拉等人抱有乐观主义的看法,认为智能互联网时代的监视技术条件虽然非常成熟,1984时代却并未来临,因为监视技术是在法治社会的有限运用−其目的“不是维持精英阶层的权力,而是有效管理”。[5]30但他们认为,泛在技术建构了监视大众的“圆形监狱”。边沁(Jeremy Bentham)在1785年为了规训犯罪而提出了圆形监狱的概念,福柯(Michel Foucault)将其发展,用“圆形敞视监狱”作为一种现代规训机制的隐喻。作为规训和惩戒机制的建筑理念模型,泛在技术构造的“圆形监狱”构成了一种可以被通透观察的空间,使得每个个体都随时可能受到监视,“犯人们”也知悉这个事实,但无法得知他们何时会受到谁人的监视。[5]192-193

诚然,出于权力运行、管理目的的监视技术会涉及到个人隐私的使用,但并不是如今隐私危机的主要威胁。与其说隐私终结的危机是奥哈拉所言的以技术主导的,一种全景、敞视逻辑下的客观危机,不如说是透明社会(Transparent society)逻辑下人们被迫摈弃隐私的危机,是资本主义意识形态中理性与自由乌托邦的瓦解。

1. 从“圆形监狱”到“透明社会”的社会控制机制

透明社会是韩炳哲(Byung-Chul Han)在《透明社会》一书中基于对智能大数据时代新自由主义(Neo-liberalism)的批判所构建的新的社会控制形态。“当今社会,到处洋溢着‘透明’的热情······距离和羞耻心无法被纳入资本、信息及交际的高速循环。因此,人们便以‘透明’的名义消除了所有谨慎的回旋余地”。[14]韩炳哲认为,数据主义标志了第二次启蒙运动,其口号便是“透明”,而数据是透明的媒介。[14]78福柯所强调的关乎生命和肉身的“圆形敞视监狱”模型已经不适于解释当前智能互联大数据时代关乎信息、精神的权力规训机制,这时的老大哥和小老弟们展现出的是友爱的面孔,人们不再因为施刑被迫承认,而是主动袒露。[14]31-51

韩炳哲指出,“透明社会”中的展示与陈列否定了“隔离”(secretus)所带来的“膜拜价值”(Kultwert)−这是透明社会的一个显著特点−即将所有距离视为亟待消除的否定性,[14]16-24透明社会对于“隔离”与距离的否定造成了其对个人隐私的根本性的冲击,大众在不可靠的隐私允诺之下“迷恋于个人的暴露,同时习惯于日益增多的监视”。[12]在公共领域和私人领域的边界模糊消弭的情况下,在不断地购买、注册、使用,不断地自我呈现的过程中,个体主体性的确立只是一种短暂幻觉。

2. 数据隐私的让渡与人的主体性瓦解

主体性是西方现代性中人类对于基督教神学祛魅后标志着人的解放的一个重要概念,其具体表现为理性与自由。黑格尔认为主体性自由是自由市场得以建立的指导原则,马克思认为,主体性有其积极的面向,因为它具有个人从生产生活中获得个人独立自由的历史进步意义,但也容易使人类陷入“物的依赖性”,陷入无法真正实现个人自由意志与本质力量的“异化劳动”之中。[15]在当前算法与大数据所构成的弱人工智能时代,人类对于承载生存网络的“泛在技术设备”产生极度的依赖,人类的消费与娱乐环节被异化为了剩余劳动,隐私数据作为“受众劳动”和“玩劳动”的产物,被资本全盘取走,而这个过程中,主体陷入无意识的沉默与被动。从这个意义上来说,主体的自我意识重新被淹没,主体性被彻底打垮和解构。马克思在《资本论》中曾有阐释,早期资本主义通过给劳动力标定价格,以掩盖剥削工人剩余劳动的行为,实现资本自身的价值增殖,使工人被迷惑误以为自己参与的是平等交换。相似地,当今商业科技公司营造出的便是一种隐私权与便利性条件无法兼顾的丑恶意识形态。[16]

胡安·卡拉斯卡尔(Juan Carrascal)等做过一个调查,发现网民虽然表示高度关注个人隐私以及个人信息使用情况,但对于自己的在线浏览历史记录估值仅为7欧元,相当于西班牙一顿快餐的价格。该研究表明,现实中网民虽然对“个人隐私”具备高度认知,但还是会主动地在隐私协议下勾选同意,将自己的隐私上交。[17]这通常被称作“隐私悖论”。斯派罗斯·可可拉克斯(Spyros Kokolakis)等学者经过大样本试验,指出在隐私悖论的影响下,公众关于隐私的态度与行为呈现出不一致性或者完全相反的特征,[18]忽视或接受其他用户的行为而不采取行动被参与者视为解决社会隐私问题的“最佳策略”。[19]具体而言,消费者无意识或被动地让渡隐私有以下几种结构形式:

首先,公众出于对技术系统的信任而愿意让渡隐私。一方面,科技公司不断宣扬科技发展引发的巨大社会变革对大众带来的益处,标榜对客户隐私的保护和增强保密级别,以疏解消费者的隐私忧患;另一方面,在现代性的信任危机下,技术系统有时能成为治疗现代社会信任危机、给予大众安全感的良方,比如家用智能监控、防盗系统、打车定位系统等。这使得公众愿意活在监控之下,用技术的光亮来规避信任缺失的黑暗地带。

其次,个体无法揭开由市场资本主导创造的技术黑箱,这使个人隐私保护处于公众的能力范围之外。尽管当前有众多隐私条款,但隐私条款更像是单方面的无条件申明,其协商性、可读性和全面性并不能保证。更多情况下,大众并不知晓谁掌握了自己的隐私、哪些隐私被人掌握、如何为别人掌握,更不知相关隐私泄露之后在未来会对自己造成怎样的影响。隐私问题的不可见性使得个体层面上面对隐私问题无能为力,不可见性消解了个体对于隐私的焦虑,使当代隐私顾虑演化为群体无意识的麻木。

最后,公众长期让渡隐私仍会威胁自身的主体性。让个人完全暴露在看似中立算法但实际上为资本控制的冰冷游戏中,但短期可能呈现为,让渡隐私能够使生活更便利,能增加物质优越感,并能够暂时满足一定的精神需求,甚至是一定程度上帮助实现了个体的自由。人们固然可以舍弃所有“智能”设备,藉此恢复对个人隐私的基本掌控,但现代社会中的个人并不会为了隐私而舍弃泛在技术带来的好处。个人对隐私的主动让渡是对个人隐私的最大威胁,一旦隐私问题被隐私主体解构,失去了个体的关注与重视就失去了其原本的意义,也失去了存活的土壤。

从“圆形监狱”到“透明社会”的社会控制机制变化中存在着新技术对于隐私主体的解构。相比于全景敞视监狱的被动性,韩炳哲提出的“透明社会”强调了一种技术-技术主体的双向辩证过程:除了有暗藏的长期监视,更有沉浸在无意识中的主动展示与陈列。这包含了技术背后的资本逻辑消解主体性的意味。所以,从社会控制机制转变角度来看,在大多数现代国家中,“隐私”问题的威胁不再是来源于“老大哥”,不再是来自国家对私人领域的干涉,而是缺少监管的“资本”对于消费大众的精神意志控制和个人自由侵袭。

五、重构隐私危机−对“隐私终结论”的批判

智能经济时代,财富的积累有赖于信息、数据的交换,这是当前无法逆转的历史潮流。在这种情况下,关于隐私的讨论在今天是否变得不合时宜了?技术的本质只有不堪的片面吗?答案无疑是否定的。公众让渡隐私带来的益处并不能成为“隐私终结”的合理化借口,科学与技术也并非会绝对地遵循直线性路径发展成为隐私终结者,为了利益而牺牲道德与信仰是一种十分短视的行为。技术决定论者所秉持的“隐私已终结”会陷入犬儒主义,将“隐私”概括为默晦的能指或“笼统之物”,只能导致社会对于房间里的大象视而不见。

特定经济技术形态下对“隐私”问题的社会建构,其实是物质、技术中介和人类分配活动的相互作用下,人类做出的道德选择。[20]否定“隐私终结论”,首先需要对人工智能语境下的“隐私”问题做出新的区别于自由主义者的阐释。本文尝试从“隐私”的本质内涵、人工智能技术本质逻辑、人的主体性三个方面对当前隐私危机进行重构。

1. 对人工智能语境下“隐私”本质的政治经济学重构

从政治经济学批判的角度来看,资本对于剩余价值的剥削是天生的,隐私作为资本主义所建构的标榜个人自由的虚伪能指,无法逃脱资本盘剥是其必然的命运。工厂时代,资本对剩余劳动的剥削是依靠工厂纪律、工资的大棒;而如今,资本对于剩余劳动的剥削依靠的是设备、平台,是依托于技术的人的生存网络。人是社会性的动物,若人跳脱当前与技术密不可分的生存网络,就会被社会排挤,这便会成为更痛苦的精神压榨。当前技术形态下,数据已成为一种生产要素,“隐私”外化为数据。算法对数据的搜寻与储存,让普通消费者在使用互联网的时候,也在源源贡献“数据商品”,这也是生产出生产要素的过程。但消费者却没有权利、没有能力、没有技术去占有这种生产要素,其全为资本所剥削。

从而,人工智能语境下的个人隐私的本质内涵实则是一种隐秘的生产要素,是剩余价值的来源。现有技术形态下的隐私危机其实是资本主义剥削“剩余价值”的极致形态。在这种形态下,“剩余价值”剥削的对象从人类劳动转变为消费领域和精神生活,被剥削的客体从“劳工”转变为“大众”、“消费者”。当前,已不仅仅是消费的需求决定生产,而是基于数据的生产需要倒推着创造出源源不断的消费者与新的消费需求。这种生产方式要源源不断地获取数据从而延续自身,并以“侵入性”的姿态榨取消费者的剩余价值以实现利益最大化。

2. 对隐私危机下人工智能技术本质逻辑的重构

技术的本质逻辑是开放和去中心化,其打开了权力流动的可能性;但回顾人类发展史,技术从来不会脱离于意识形态而单独存在。马克思将科学看作一种意识形态,它依赖并派生于经济基础。基于科学研究的技术发展更是仰赖于追逐获取更多剩余价值的资本逻辑。随着人类社会的发展,技术环境从辅助人类生活的中立的工具变身为拥有资本目的手段,它在带给人类社会便利的同时也可能释放出人类社会的阴暗面,这在一定程度上会加剧社会的分裂和动荡。当前的隐私危机,实际上是现有人工智能技术形态所蕴藏的资本主义意识形态,在一味追求资本利润的过程中产生的负外部性的外化表现。

从而,问题本身不在于科学和技术,而在于驱动其发展的资本逻辑。人工智能技术之下的隐私危机本质上就是基于“常态科学”(normal science)的技术发展所带来的社会风险。希维尔·丰托维茨(Silvio O. Funtowicz)和杰罗姆·拉威茨(Jerome R.Ravetz)认为,常态科学是现代经济产业体系的基础,它滋生出了一系列不确定的人为风险,面对这一后现代性的现行趋势,要以更具开放性、对话性的“后常态科学”(post-normal science)进行回应。[21]这要求在人工智能技术研发和应用的过程中纳入利益相关者的考量,将人工智能技术看做更广泛的“社会议题”而非仅仅是技术或产业问题,强调技术背后的人性逻辑而非资本逻辑。

3. 重构人工智能时代下人的主体性

赫伯特·马尔库塞(Herbert Marcuse)认为,现代科学技术创造出一系列崭新的生活方式,将人与现代工业社会融为一体,不断被灌输新的虚假需求,使人成为失去理性与自由的单向度的人。[22]艾里希·弗洛姆(Erich Fromm)认为,现代社会中日常“娱乐”和“消费”是人类规避内心恐惧和空虚感的途径之一。[23]透明社会控制机制下,人工智能和算法为大众提供了新的生活、娱乐、消费工具,人类可以机械化地满足虚假的需求、逃离空虚和恐惧,将“美丽新世界”投射成现实。

人工智能与算法将人变成了0与1代表的二进制虚拟数据,这种发展方向实际上反映了技术对贪婪人性的回应。然而,人工智能所带来的虚假满足并非一劳永逸,追求利益与暂时性满足的结果−将人异化为数据和机器,会造成实际人类社会中的疏离,这是违背人性本质需要的。直面和应对隐私危机,意味着在以逐利为中心的资本主义意识形态中面对人类个体的终极、实际需求,以重新确立自我主体性。

可以预见,资本与技术触及的公共利益风险不会凭空消失,关于隐私的斗争将一直存在。在未来新技术的不断迭代发展下,公众隐私保护意识、隐私侵犯反制技术以及相关的法律法规也会不断地发展和流变。只要技术不被绝对垄断,资本仍被公共权力所制衡,隐私场域就时刻存在着权力、资本和话语等的相互竞夺,这些斗争来自企业、用户个体、政府以及非政府组织等各利益相关方之间。当谷歌、脸书等硅谷公司的前员工共同在NETFLIX纪录片《监视资本主义》中痛斥人工智能对人们的实时监控和对道德的侵蚀时,显然技术主体拥有的反身性注定了技术决定论预言的失败。当人工智能、泛在技术的边际效益出现停滞或开始下降,即其为人们带来的便利无法抵消其剥削消费大众剩余价值的后果时,实实在在的代价会让更多人醒悟。

志谢:感谢北京交通大学传播学系副教授黄彪文老师为本文提供宝贵指导意见。本文文责自负。

① 哈佛大学从事社会学和哲学研究的学者肖莎娜·祖博夫(Shoshana Zuboff)对当今的社会体制进行了归纳和提炼,认为人类社会发展至今已经步入了“监视资本主义时代”(the age of surveillance capitalism)。“监视资本主义”最显著的特征主要体现在八个方面:一是人们的经验是资本主义市场行为的免费原材料;二是寄生逻辑,即具体的商品和服务的生产隶属于全球资本主义架构;三是人类财富、知识、权力呈现前所未有的高度集中态势;四是监视成为一种基本现象;五是“监视资本主义”对人性和伦理的破坏与18至20世纪“工业资本主义”对自然环境的破坏一样严重,甚至更为糟糕;六是一种新“工具主义”思潮涌现并对民主造成破坏;七是“监视资本主义”的基本逻辑是消除不确定性;八是“监视资本主义”对人权的关键组成部分形成剥夺−或称“上层政变”。

② 谈及加密算法,当今人们必然会想到“区块链”,然而其适用性、安全性和可靠性仍然存在诸多问题。作为区块链应用典型代表的比特币,在其设计之初,是为了使交易更加便利,即在交易结算过程中省去由于第三方参与而导致的效率损失。比特币的设计是在电子货币的基础上加入“时间戳服务器”和“工作量证明”,目的是将整个体系分散化并使储存于区块中的信息不可以被随便更改。如果要对某区块链服务进行整体“调整”,则需对每一区块中所包含的相同信息同时进行一次性修改。在使用区块链服务时,使用者每次都会自动生成一个新地址以防被追踪。然而,这个系统也存在两大致命问题,其一是区块链服务的使用者拥有一个密码公钥,当他人认定密码公钥属于此人时,他的所有信息将被轻松追溯出来;其二是,比特币之父中本聪曾指出,“只要诚实的节点所控制的计算能力的总和大于有合作关系的攻击者的计算能力的总和,该系统就是安全的”,反之,则区块链系统将完全暴露于窥视者视野当中。

③ 当今,数据在许多国家已经被列为“生产要素”。2020年4月9日,《中共中央、国务院关于构建更加完善的要素市场化配置体制机制的意见》中明确,数据是一种新型的生产要素,与土地、劳动力、资本、技术并列为五大生产要素。

参考文献
[1]
Solove D. Understanding Privacy. USA: Harvard University Press, 2008.
[2]
Moore Jr B. Privacy: Studies in Social and Cultural History: Studies in Social and Cultural History. Essays and Reviews, Princeton: Princeton University Press, 2014, 236−241.
[3]
Holmes R. Privacy: Philosophical Foundations and Moral Dilemmas. Privacy Disputed. The Hague: SDU, 1995: 15−30.
[4]
Fuchs C. Towards an Alternative Concept of Privacy. Journal of Information, Communication and Ethics in Society, 2011, 9(4): 220-237. DOI: 10.1108/14779961111191039.
[5]
吉隆·奥哈拉, 奈杰尔·沙德博尔特. 咖啡机中的间谍: 个人隐私的终结. 北京: 生活·读书·新知三联书店, 2011.
[6]
Van Dijk J. The Network Society-Social Aspects of New Media. London: Sage, 2006: 113.
[7]
闫立, 吴何奇. 重大疫情治理中人工智能的价值属性与隐私风险−兼谈隐私保护的刑法路径. 南京师大学报(社会科学版), 2020(2): 32-41.
[8]
O’Hara K, Shadbolt N. The Spy in the Coffee Machine: the End of Privacy as we Know it. USA: Simon and Schuster, 2014: 168.
[9]
Bellotti V, Sellen A. Design for Privacy in Ubiquitous Computing Environments//Proceedings of the Third European Conference on Computer-Supported Cooperative Work 13–17 September 1993, Milan, Italy ECSCW’93. Springer, Dordrecht, 1993: 77−92.
[10]
Hansmann U, Merk L, Nicklous M S, et al. Pervasive Computing: The Mobile World. Second Edition. Berlin: Springer Science & Business Media, 2003, : 17-22.
[11]
Harari Y N. Sapiens: A Brief History of Humankind. USA: Random House, 2014.
[12]
胡泳. 从敞视、单视到全视. 读书, 2008(1): 143-153.
[13]
Mayer-Schönberger V. Delete: The Virtue of Forgetting in the Digital age. USA: Princeton University Press, 2011: 2.
[14]
韩炳哲. 透明社会. 北京: 中信出版社, 2019.
[15]
彭国华. 主体性自由的科学扬弃−马克思对西方现代性的批判与超越及其当代意义. 马克思主义研究, 2017(5): 96-112,160.
[16]
郭锐. 人工智能的伦理和治理. 北京: 法律出版社, 2020: 56.
[17]
Carrascal J P, Riederer C, Erramilli V, et al. Your Browsing Behavior for a Big Mac: Economics of Personal Information online//Proceedings of the 22nd International Conference on World Wide Web. 2013: 189−200.
[18]
Kokolakis S. Privacy Attitudes and Privacy Behaviour: A Review of Current Research on the Privacy Paradox Phenomenon. Computers & security, 2017, 64: 122-134.
[19]
Li H. Negotiating Privacy and Mobile Socializing: Chinese University Students’ Concerns and Strategies for Using Geosocial Networking Applications. Social Media+ Society, 2020, 6(1): 2056305120913887.
[20]
Veerbek P P. Toward a Theory of Technological Mediation: a Program for Postphenomenological Research. BERG, Jan Kyrre, o FRIIS a Robert P. CREASE. Technoscience and Postphenomenology: the Manhattan Papers, 2015, : 189-204.
[21]
Funtowicz, S. O. and J. R. J. F. Ravetz. Science for the Post-normal age. Futures, 1993, 25(7): 739-755. DOI: 10.1016/0016-3287(93)90022-L.
[22]
赫伯特·马尔库塞. 单向度的人. 上海: 上海译文出版社, 2006.
[23]
埃里希·弗洛姆. 爱的艺术. 北京: 人民文学出版社, 2018.
Does the Artificial Intelligence End Personal Privacy? ——Starting with Spy in the Coffee Machine: The End of Personal Privacy
WU Bang-le     
Centre for Public Awareness of Science, Australian National University
Abstract: In the era of artificial intelligence and the interconnection of everything, privacy issues have become a secretive gray area for technology companies that rely heavily on users’ personal data, and the end of privacy crisis has also become a topic of widespread discussion in academic circles. British scholars O’Hara and Shadbolt discussed the “Panopticon” built by ubiquitous technology for humans in the book Spy in the Coffee Machine: The End of Personal Privacy with a very forward-looking vision and asserted that privacy had come to an end. Based on the book and from the perspective of political economy and philosophy of technology critiques, this article argues that: (1) “Privacy” is a hypocritical signifier that promotes personal freedom. The current privacy problem mainly lies in the intrusive collection, use and circulation of user data by commercial capital; (2) The current technical reality threatening privacy is the artificial intelligence based on data and algorithms digitalizing and commoditizing privacy; (3) The current social control mechanism has shifted from a “panopticon” to a “transparent society”, and the surrender of privacy by individual indicates the collapse of the subjective freedom promised by capitalism; (4) Privacy has essentially become a hidden source of production factors and surplus value; (5) The privacy crisis is essentially the squeeze of the surplus value of human survival by the capital logic that drives technological development; (6) It is against human nature to alienate people into data and machines, facing privacy issues directly means facing the ultimate needs of people; (7) Assertion of “privacy ends” is cynicism, and the struggle in the privacy field will continue to exist in the future.
Key words: artificial intelligence    privacy    transparent society    ubiquitous technology    

作者简介:吴帮乐,澳大利亚国立大学公众科学意识研究中心博士研究生。研究方向为科学传播、环境传播。
项目资助:国家留学基金委项目(202006360044)。