文章快速检索     高级检索
  科学与社会  2020, Vol. 10 Issue (2): 89-110  
0

引用本文 

吴何奇. 大数据时代个人隐私保护的刑法路径——从医疗人工智能的隐私风险谈起[J]. 科学与社会, 2020, 10(2): 89-110.
WU He-qi. The Criminal Law of Personal Privacy Protection in the Era of Big Data——From the Privacy Risk of Medical Artificial Intelligence[J]. Science and Society, 2020, 10(2): 89-110. DOI: 10.19524/j.cnki.10-1009/g3.2020.02.089.

作者简介

吴何奇,上海财经大学法学院博士研究生。研究方向为刑法学、犯罪学

项目资助

中央高校基本科研业务费专项资金项目“社会转型背景下刑罚变革研究”(2018110301)

大数据时代个人隐私保护的刑法路径
        ——从医疗人工智能的隐私风险谈起
吴何奇     
上海财经大学法学院
摘要: 大数据时代,包括医疗人工智能在内的人工智能技术被广泛地运用于科学研究与社会生活的方方面面。由于人工智能的底层逻辑是对海量数据的深度挖掘与分析,在利用数据的过程中如何保护公民的隐私不被侵犯成为大数据时代隐私保护所必须关注的问题。刑法作为调整社会关系的最后一道防线,保护隐私的必要性取决于它在调控技术发展中所承担的使命以及仅依靠其他非刑法手段不足以保护个人隐私的现状。我国现行刑法中并没有以隐私权为独立客体的法律条文,对隐私权的保护附属于刑法对市场经济秩序、公民人身权利与民主权利、社会管理秩序的保护。这一路径下的个人隐私保护存在制度设计上的缺陷,不能为大数据时代的隐私保护提供充足的制度供给。大数据时代个人隐私保护刑法路径的构造,首先需要明确个人隐私保护刑法路径的立法理念,其次需要理性定位个人隐私的内涵,最后,以上述内容为基础矫正当前制度的缺陷。
关键词: 大数据时代    人工智能    隐私风险    刑法保护    
中图分类号: D90           文献标识码: A
DOI: 10.19524/j.cnki.10-1009/g3.2020.02.089
一、问题的提出:医疗人工智能的隐私风险

近年来国家对医疗信息化发展的促进政策推动了人工智能在医疗领域的巨大发展。随着《“健康中国2030”规划纲要》的发布,“健康中国”的建设已上升为国家战略,结合《新一代人工智能发展规划》将人工智能应用定位于提升社会治理智能化水平的技术手段,作为“互联网+”健康命题下的核心构成,利用医疗人工智能转变传统医疗的服务模式,以智慧医疗模式的开启惠及全民必然是贯彻落实“健康中国”战略的应有之义。特别是在我国医疗资源供需严重失衡的当下,作为第四次工业革命的核心驱动技术的人工智能不仅能够优化健康医疗资源供给模式,还能够通过医疗大数据建设,推进形成具有中国特色的智能化健康体系,成为未来医学变革的核心驱动力。

此外,获得资本青睐的人工智能医疗使得很多医疗机构有资金来做大数据分析。HC3i中国数据医疗网发布的报告预计人工智能应用的市场总值在2025年预计达到1270亿美元,而人工智能医疗将占据市场规模的1/5。[1]在人工智能领域,数据量的大小和处理速度的快慢决定智能水平的高低。例如,百度对用户的“精准画像”就是根据对海量用户的数据分析。而在医疗领域,通过大数据,我们甚至可以检测我们罹患各种疾病的可能性,从而更好地预防疾病。进入医疗人工智能2.0时代,人工智能赋能医疗领域最典型的场景应用就是医学图像分析。传统对病人CT图像的诊断采用的是两个医生同时查看的模式,为了提高诊断的准确率,在两个医生的诊断结论不一致时则需要耗费人力就诊断结论进行进一步的讨论,卷积神经网络在医学图像领域的应用与推广针对的便是医学领域的这一痛点。这种深度学习的算法通过接受各种医学图像的训练获取输入图像,使用卷积、汇集等操作将输入图像的顺序转换为扁平向量,以输出向量的元素表示疾病存在的概率。概言之,大数据时代,数据的丰富与价值的提升、数字技术的发展不断助力科学家对生命奥秘以及疾病产生机理的探索。从大数据分析到人工智能,越来越多的新兴科技正在被应用到医疗领域,每一次技术上的革新与成功应用,都给医疗领域带来了全新诊疗技术与科研手段,也提高了就诊治疗过程中患者的安全。

大数据时代为人工智能的训练学习提供的海量数据是人工智能发展的核心要素之一,根据国家工业信息安全发展研究中心发布的报告,我国大数据产业规模在2019年已突破8000亿元,人工智能对大数据的应用逐渐遍及经济社会的每一隅,它在为人类生活带来便利的同时,也让收集数据的行为频繁和普遍,使得个人隐私问题被逐渐放大。个人私密信息泄露风险的增加是高度信息化的负面产物,精准诈骗、广告骚扰等现象屡见不鲜。[2]具有划时代意义的技术革命都给法律领域带来了深远影响,[3]信息数据的合理使用与隐私保护之间的矛盾已成为当前社会关注的热点法律问题,而这一问题在医疗领域尤为突出。

首先,医疗人工智能进化水平的高低同样取决于其本身所掌握的医疗数据的多寡。而数据的积累和运用又以医院和患者之间数据的交换与共享为前提。然而,由于医疗人工智能对大量临床数据与诊断信息的挖掘和利用,涉及个人信息的获取、扩散、分析利用等一系列问题,对海量数据的不断挖掘与分析,就会带来个人隐私安全风险。病人对自己的医疗信息具有隐私权是一项业已被世界各国立法所确定的基本原则。根据一般的生活常识,病人有时不愿意向包括亲属在内的他人透露自己的病情,特别是传染病等可能引发一定社会后果的疾病情况,因为病人的诊疗信息一旦泄露,就可能对病人的生活和幸福带来深刻影响。

其次,人工智能与人最本质的区别在于其无所谓动机,只追求人类通过算法设定的目的。一旦人工智能被黑客或网络病毒侵入,寄希望于不具有人类思维的机器人为患者恪守秘密显得极度不现实。信息技术的发展既能造福人类,也会成为不法分子违法犯罪的工具。人工智能时代,任何数据都处在互动的环境中,个人信息时时刻刻都面临着被窃取的风险。例如,2017年发生于上海的一起网络盗窃案中,犯罪分子的犯罪机理便是基于对受害人被黑客窃取的登录密码进而以俗称“撞库”的方式获取受害人登录信息,从而盗取银行存款。[4]2018年11月,连锁酒店万豪国际的5亿客户数据被盗;2019年,美国银行Capital One Financial便遭到黑客入侵,约1.06亿信用卡客户的个人信息遭泄露。

此外,不仅对患者数据的利用与保护之间的平衡点难以为人类所掌握,更要紧的是,在移动互联的今天,隐私的泄密者往往就是我们自己。大多数人在享受人工智能带来的便利时几乎没有个人隐私的防范意识。通过对26个国家近1.9万人的询问,益普索全球顾问(Ipsos Global Advisor)发布了“2019年全球公民对数据隐私的态度调查”。在这份报告中,仅35%的受访者很清楚公司掌握了多少个人数据,32%的受访者了解公司如何处理这些数据。在人工智能时代,人工智能的规则和运作愈发地趋近于用户无法理解的秘密领域。[5]不仅如此,人工智能产业的运作方关心的往往只是技术的运用能为企业带何等的财富。埃森哲的最新报告显示,1/3的金融公司缺乏隐私风险计划。[6]而在Braze公司2020年2月发布的数据隐私报告中,83%的营销高管表示,除了法律要求的,没有必要保护消费者的隐私。[7]正如吴军博士所提到的,只有2%的人会成为智能时代的最先受益者。[8]现代社会中,只有少数人能够站在金字塔顶尖,数字技术的鸿沟甚至会加深这一社会图景的显现。伴随着网络技术的迅猛发展,广大公民对信息技术的茫然与无知更让一种个人信息被泄露以及被非法利用产生的严重不安感成为整个社会挥之不散的阴霾。

伴随着《新一代人工智能发展规划》(以下简称《规划》)在2017年7月正式发布,如何通过法律法规的制定更好地保障人工智能的健康发展被进一步强调。根据《规划》的指导精神,国家希望通过开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究推动适应人工智能发展的顶层设计的制定。在此背景下,法学领域围绕人工智能的讨论呈现出百家争鸣的图景,至今尚未停歇。从刊载于CSSCI期刊的成果来看,虽然围绕人工智能这一主题的法学研究滥觞于世纪之交张保生教授基于法理学的视角对人工智能法律系统的审视,但当前国内法学学者对于人工智能的关注主要集中在以下几个方面:人工智能创作物的版权问题,人工智能是否具有刑事责任主体的争议,人工智能的刑法规制问题。较之于上述几个方向,法学学者对于医疗人工智能法律问题的研究却是凤毛麟角。医疗人工智能提供的服务依赖于对医疗数据的深度挖掘与分析,在利用数据的过程中如何保护患者的隐私不被侵犯更有讨论的价值。毕竟,技术上的漏洞能够逐渐在技术本身发展的进路中得以抹平,但只要医疗人工智能“深度学习”的基础依然是海量的医疗数据,医疗人工智能对患者个人隐私的风险就不会消除。人工智能不仅是技术问题,更是社会运作机理如何调整的问题,在享受人工智能所带来的福利的同时,我们仍然需要将法治管理嵌入技术的生产环节从而规避不当的法律后果。

在大数据时代,用法律保障公民个人信息的安全是妥善保护公民个人隐私的关键,而个人隐私信息因其概念构造的复杂成为个人信息合理使用与侵犯隐私行为区分的难点。数据的分析与运用是人工智能技术的底层逻辑,如何在使用信息创造财富的同时兼顾隐私的保护,协调隐私保护和信息福利之间的张力,则是大数据时代医疗人工智能发展进路上亟待解决的重要问题。因此,本文研究的立场着眼于维持充分挖掘数据价值促进人工智能的发展和保护个人隐私权之间的平衡,以医疗人工智能的隐私风险为切入点,分析大数据时代个人隐私保护刑法路径的问题与发展进路。

二、个人隐私保护刑法路径的必要性

揭开隐私保护刑法路径必要性的面纱,首先需要了解在大数据时代,刑法在调控技术发展中承担的使命。

犯罪是社会成员之间争夺利益从而产生利害冲突的表现形式之一。在这种利害冲突中,决定实力强弱、地位优劣的是社会成员所能够掌握到的资讯,以及实际上所能够支配运用的资源的多寡。由此引发的思考是,在对社会成员的科技素质具有极高要求的人工智能社会,一个人如果没有相当的教育水准是难以适应的。这在一定程度上注定了人工智能社会是科技精英的社会。基于这一背景,伴随着人工智能时代的降临,以利害冲突为本质的犯罪问题存在严重化的威胁。作为应对,国家需要通过制定各种有强制力的法规范,划定出人类社会最起码的客观秩序标准。面对可能违反法律的技术风险,尽早发现相关人工智能研究及其研究成果与法律的冲突,才能更好地让技术参与者恪守法律秩序,让技术的发展符合法律的规定。刑法的最后性将国家为维护社会秩序所能接受的底线以规范的形式告知全民,这便是刑法对技术指引。调控技术发展的依据是业已建立的规范所形成的秩序基础,而这些秩序基础又是建立在法律和社会道德之上。但法律和道德并非一成不变,相对应的,秩序基础也是不断持续发展。[9]传统隐私保护路径的设计上,立法者侧重于对隐私权主体的隐私利益与他人言论自由、知情权等利益矛盾的协调。[10]但大数据时代,数据价值的提升让立法者在制度设计方面面临新的压力,传统隐私保护方面的利益矛盾逐渐过渡为数据合理使用与公民隐私保护之间的冲突。因此,通过反思技术发展的逻辑进路进而展开对现有立法的改革甚至重塑,以更好地应对技术发展中凸显的现实问题,同样是刑法在调控技术发展中承担的使命。

然而,要求刑法更多地介入社会治理往往需要接受最后性原则的考量。人工神经网络具有的非线性、非局限性、非常定性和非凸性的基本特征让大数据时代的隐私风险更具隐蔽性和不可计算性,主张刑法对隐私风险的介入在特定的时代背景下具有一定的合理性,但对刑法的扩张必须抱以相对节制的态度。刑法的最后性原则意味着只有其他的法律无法进行充分的保护,才应认可刑法的法益保护。刑罚制裁作为最严格的国家干预措施,本身具有痛苦报应的意义,以及标签式的烙印效果。所以,只有当干预效果较为缓和的法规范,或是社会机制对于抑制不法的利益侵害不具成效,也就是在无法确实对市民的自由权利提供有效保障的情形,刑法手段的干预才有介入的空间。具体到隐私犯罪的立法设计,必须在穷尽一切民事、行政制裁后仍不足以保护隐私时,才可以动用刑法。大数据时代,为何更加需要刑法介入个人隐私的保护?刑法领域以外的隐私保护是否不足以保护公民的个人隐私?下面以医疗领域的个人隐私保护为例来看。

第一,个人数据去识别化能否充分保护个人隐私?我国的法律并未就个人信息去识别化进行明确的界定,“可识别性”是个人数据的功能要素,换言之,只要对需要使用的个人数据进行去识别化的操作,就使得该信息不再是个人数据,从而规避了法律的约束。据此,去识别化规则在实践中的应用便是数据的持有者在对其持有的数据进行集中筛查以后,通过技术手段删除数据中能够用于识别特定个人身份的那部分数据的过程。[11]一项有效的去识别化措施能够防止任何人从数据中识别出个人或推断出任何信息,个人信息的去识别化因此被认为是降低数据流通中隐私风险、保证信息有序流通的前提。[12]这样的做法似乎兼顾了对数据主体隐私风险的降低和数据特定用途的利用价值,但如何实现有效识别?美国在线公司(AOL)与网飞(Netflix)公司在这一领域的滑铁卢似乎证明这项技术也无法保证规避隐私的有效性。而冰岛生物科技学者艾纳与计算机信息安全学者罗斯在对个人医疗信息进行了详细的检视与评估后认为,个人信息的“匿名性”在逻辑上与技术上都是悖论。一方面,在数据输入、编码的过程中,数据库所纳入的本就是未电子化的且经过数据处理人员逐笔检阅、逐字输入纸质数据,因此凡是经手数据处理的人员都会知悉病人的身份。另一方面,在数据编码、输人数据库之后,仍需持续将病人的近期就诊记录予以更新和增补。而为了实现建置全民医疗记录数据库所需进行的研究,则必须要有辨识个人身份的关键钥,只要有关键钥和持有人存在,即非“不可追溯、完全匿名”,关键钥外流、误用、滥用均将对公民隐私造成侵害。[13]256此外,在大数据时代去追求完全意义上的个人数据的去识别化、尤其是对医疗领域的个人数据的去识别化往往会导致数据价值的下跌。无论是去识别化的可行性还是损益比,这项措施都无法充分保护个人隐私。

第二,同意原则能否协调隐私保护与信息使用的矛盾?以被害人的承诺作为正当化事由排除行为违法性的依据滥觞于古罗马时期法学家乌尔比安所说的,“符合被害人意志的,不构成不法”。[14]而首次直接使用“告知同意原则”的文本是1964年通过的用以规范医疗行为、医学研究的《赫尔辛基宣言》。联合国教科文组织于2003年通过的《国际人类基因宣言》同样强调在相关医学研究中,对个人医疗信息的搜集、处理、使用以及保存凡对人权、基本自由、人性尊严存在威胁性的均应取得受试者告知后的同意,且不得用于范围外的用途。据此,信息主体的同意似乎可以阻却对个人信息收集、利用、提供甚至出售的违法性。随着社会信息技术的繁荣,它逐步延伸到个人信息保护的主体框架。[15]依据知情同意规范对个人医疗数据的保护意味着医院、疾病预防控制机构在收集数据主体的信息之前,应告知数据主体需要什么样的信息、如何处理和使用什么样的信息,在依法取得患者的明确同意以后,才能对其个人医疗数据进行处理与运用。然而,同意原则在个人数据领域的适用同样面临着实践中的障碍。在人们感受到个人隐私存在被他人觊觎的风险的时代背景下,能够确认或者征得数据主体同意的场合非常有限。尤其是个人医疗数据往往涉及到患者难以启齿的个人隐私,患者对共享个人信息的反对更让医疗人工智能对数据的搜集难以开展。此外,通知同意机制下的通知大多难以有效到达、信息主体缺乏议价空间,进一步使得该机制仅仅停留于理论层面而难以付诸有效实践。[16]

第三,优越利益规则是否为最优解?优越利益规则的目的是在某些场合,为了保护价值较大的利益而对价值较小的利益的牺牲。在使用公民个人信息的过程中,个人隐私保护与其他利益往往存在冲突。利益至上原则是解决冲突的主要理论工具。大数据时代,在数据技术中利用个人信息的目的、用途如果是为了技术创新或治理突发事件等公共领域,在个人隐私与社会公共利益发生冲突的情形下,为了实现社会整体的更大利益,隐私权也被认为是可克减的权利之一,在特定情况下,为了维护公共利益,可以对其加以一定的限制、甚至剥夺,简言之,追求更大社会效益的目的能够排除侵权行为的违法性。依据最高法的司法解释,任何人基于“社会公共利益”目的,在网络空间公布、传播公民涉及个人隐私的个人信息,可以免除当事人的侵权责任。按照司法解释逻辑,隐私权不禁止与公共利益或者普遍利益相关事务的公开。隐私权的旨趣在于保护私人事务不被大众无理由的关注,避免公民陷入不受欢迎以及违背意愿的报道。但当一些信息涉及公共利益或社会的普遍利益,哪怕其不属于公共生活的范围内,信息主体依然不能阻止公众对这些事项的猎奇。但何谓“社会公共利益目的”?不少学者对此提出了阐释,主要理论大致分为“优势理论、共同利益理论与单一理论”。优势理论主张公共利益是通过“多数决”反映出来的大众所想要的公民意志。作为对优势理论的修正,共同利益理论认为工具性的民调或大多数人的意见不足以作为衡量公共利益的标准,而应考虑社会共同的福祉。单一理论强调人与社会的关系,公共利益应以社会的主流价值或意识形态作为依据。[13]173−174尽管上述理论存在区别,但背后具有共通的逻辑,即基于不同的立场,对于公共利益的认定都不尽相同。公共利益的形成往往是基于社会的平稳,通过持有不同意见的公众展开观点的交换、批判与讨论,使不同利益主体间的主张相加或消解并最终趋于平衡的过程,最终形成的利益就是公共利益。因此,公共利益又是流动的,会随着社会情境、文化环境的不同而有所不同。在上述理论中,共同利益理论在个人隐私保护领域颇具借鉴意义,因为只有基于社会共同福祉的才是正当的,这也是美国联邦第九巡回上诉法院在佛吉尔诉时代杂志一案中区分“正当的公共关切”与大众无止境的猎奇心的标准。然而,为了提高医疗卫生水平而牺牲患者个人利益的观点受到了医学研究领域的批评,这反映出业界对医学研究的利益排序未能形成共识。换言之,我们很难认为任何医疗研发的社会效益必然高于患者个人信息保护的利益,进而以此作为排除违法性的正当理由。

综上所述,在大数据时代,主张刑法介入个人隐私的保护不仅是刑法在调控技术发展过程中的使命所在,亦不冲突于刑法谦抑的基本价值。

三、个人隐私保护刑法路径的现状与缺陷 1. 个人隐私保护刑法路径的现状

19世纪起,国外的刑法典中就存在保护个人隐私的法律规制。[17]而刑事法领域,第一次对医生等特定职业的保密义务予以要求的立法是1794年的《普鲁士一般法》。自此,医生等特定职业的行为主体对患者个人信息的泄露将面临刑罚的苛责。此外,日本《刑法》第134条“泄露秘密罪”也对医药行业的从业者在没有“正当理由”的前提下泄露“业务上所知悉的他人的秘密”的行为进行了规制,以此在限定的状况下对个人隐私进行保护。不同于国外刑法典对个人隐私保护专章专节专门罪名的立法模式,我国尚未出台以具有独立地位的隐私权为客体或主要客体的刑法规制,对“个人隐私”的保护除了援引侵犯公民个人信息犯罪的相关规定,往往依附于刑法对超个人法益的保护,通过对国家法益、社会法益、商业秘密的保护附带的惩治侵犯个人隐私的行为。在现行刑法中,涉及刑法对公民个人隐私保护的条款主要有“侵犯公民个人信息罪”“窃取、收买、非法提供信用卡信息罪”“侵犯通信自由罪”“私自开拆、隐匿、毁弃邮件、电报罪”“非法获取计算机信息系统数据、非法控制计算机信息系统罪”。此外,由于个人隐私的人格权属性,“侮辱罪”也能在一些判例中作为惩治侵犯个人隐私行为的法律依据。但总体而言,现阶段个人隐私保护的刑法路径依然呈现出附属保护的立法模式。

具体而言,在侵犯市场经济秩序犯罪一章,由《刑法修正案(五)》增设的“窃取、收买、非法提供信用卡信息罪”开创了我国刑法对个人隐私保护的先河。信用卡信息即信用卡磁条上所承载的信息。其中涉及个人隐私的主要指持卡人的个人标识代码(personal identification number,PIN),即持卡者的个人密码,这是持卡人最重要的信用卡信息,也是该类犯罪行为直接侵害的对象。尽管从罪名设置上看,该罪的立法旨趣在于“对金融管理秩序的防护”,但公民的个人信用卡信息属于个人隐私的重要组成,通过附属于市场经济秩序犯罪刑法规制的保护路径依然具备了保护公民个人隐私重要意义,加大了刑法对侵犯个人隐私犯罪的打击力度,更好地保护个人隐私及其关联的法益。

在侵犯公民人身权利、民主权利犯罪一章,经过《刑法修正案(九)》对侵犯公民个人信息罪的修改以及最高法、最高检出台的司法解释,该罪行几乎成为当前刑法保护个人隐私的金科玉律。通过对个人信息专属犯罪做了主体扩大化和行为多元化的修改,该罪的设置基本回应了对个人隐私保护的基本需求。在《修正案(九)》颁布之前,该罪的犯罪主体限定为“国家机关或具有金融、电信等公共职能的工作人员”这些特殊主体。仅以医疗人工智能为例,机器的使用离不开患者的个人信息,在将人工智能系统部署到临床实践以前,它们需要通过临床活动(如筛选、诊断、治疗分配等)生成的数据进行培训,以便它们能够学习相似的受试者组、受试者特征与感兴趣的结果之间的关联。这些临床数据通常以人口统计资料、医疗记录、医疗设备电子记录、体检、临床实验室和图像等形式存在,但不限于此。这些信息在流通和共享的过程中往往没有在隐私政策中披披露,以美国为例,公开报告的538例信息侵权案件中,涉及2140万份患者案例。[18]《修正案(九)》取消了犯罪主体的限定,进一步明确了以刑法保护个人隐私的一般化趋势。

在侵犯社会管理秩序犯罪一章,非法获取计算机信息系统数据的行为被规定为犯罪。在计算机领域,数据即原始资料,本是无意义的客观存在,而信息是为了特定目的对数据进行处理和建立内在关联。但刑法视野中计算机数据已经指向“在计算机信息系统中实际处理的一切文字、符号、声音、图像等内容有意义的组合”[19]。与其说刑法通过该罪的设置保护的是计算机数据,不如说保护的是数据所承载的信息。更何况,大数据时代中的数据之所以被冠以“大”(big)的称谓,并不简单的表现为数据在量的多(vast),而在于数据本身在强调一种抽象意义的“大”,传递的是一种思维方式的改变。在现阶段数据的本质已然无限趋近于信息的意蕴的前提下,保护数据的刑法路径也就是保护信息的刑法路径。自然,对个人隐私里属于公民个人身份认证信息的也就纳入了该罪保护范围。

2. 隐私保护刑法路径的缺陷

诚如上文所述,现行刑法对个人隐私的保护实则附属于刑法对数据、信息的保护。但大数据时代,隐私权的客体内容不断丰富,刑法固有的对传统私人生活中的住宅、通信以及家庭隐私的保护逐渐无法满足当下对隐私权保护的需要,将个人隐私作为刑法的独立客体予以保护备受期待。此外,大数据时代的信息权不仅具有私的属性,经过处理利用的信息更具有公共性。出于发展人工智能等新兴技术的需要,公共性优先的大数据收集和处理带来的是对个人信息自我决定权的弱化,技术发展的需要也使得不用得到个人知情同意就能利用个人信息的现象频繁出现,这与公民保护隐私的诉求形成了利益冲突。作为回应,与信息权相联系的个人隐私保护也必须予以相应的调整,而对规则的发展与完善需要我们首先剖析现行规则中与这个时代的问题治理所不相契合之处。

(1)“一元论”隐私保护模式的问题。不同于国外刑法对个人隐私专章专节、区分信息与隐私的“二元论”保护模式,我国刑法法典对个人隐私、信息的保护选择了“一元论”的进路。在揭示该立法模式的缺陷之前,有必要厘清法规范中“数据”“信息”“隐私”的概念及关系。

在相关立法文件中,不同国家和地区采取的称谓有所不同。欧盟地区多采用“个人数据”的概念,美国多用“个人隐私”的表述,我国的立法文件中则存在着“个人隐私”与“个人信息”的提法。[20]个人信息与个人数据存在文义上的区别,但在法律中,二者只是由于表达习惯的不同而对术语的选择有所差异,并无实质内涵的不同,因而可以互相通用,[21]甚至互为解释对象。

对个人隐私与个人信息的区分是笔者批判刑法“一元制”隐私保护模式的教义学逻辑。称谓的不同,既与不同国家、地区立法、司法传统相关,也彰显不同国家、地区对个人隐私保护的态度与方式。例如,在美国的立法与司法实践中,隐私的范畴十分宽泛,包括个人信息、资料,个人独处私生活安宁,个人自主决定私人事务、支配私人领域三个类别,[22]对个人信息的保护属于信息性隐私权的内容。[23]2−3在我国理论界,严格区分个人信息与个人隐私、认为二者的内涵与外延不一致的观点得到大多数学者的认可。然而,对于二者之间的关系,不同学者间存在分歧。一些学者认为,个人信息与个人隐私属于上位概念与下位概念、包含与被包含的关系。例如,齐爱明教授认为,个人信息包含个人隐私,个人隐私是个人信息下位概念,是个人信息的一部分。[24]赵秉志教授认为,根据公民在社会活动中是否公开个人信息的主观意愿,可将其分为可以为公众所知悉的信息与公民不愿为公众所知悉的个人信息,也就是个人隐私。隐私是包含在个人信息之内的一种私密信息。[25]

上述学者都将个人隐私视为个人信息的一部分,对个人信息与隐私的保护思路通常是“一元论”的模式,即将隐私纳入个人信息的范畴从而一同保护。笔者认为,上述观点值得商榷。根据我国立法对个人信息的权威定义,“记录”与“识别”构成个人信息的两个核心要素。前者是个人信息的状态要素,后者则属于个人信息的功能要素。从形式逻辑上看,个人隐私被包含于个人信息的前提是个人隐私应符合个人信息的界定,换言之,个人隐私得首先具备个人信息的状态要素,即已通过电子或其他方式被记录下来,显然,并非所有的个人隐私都符合这样的特征,持“上位说”或“包含说”的学者实则是将个人隐私等同于个人隐私信息,限缩了个人隐私的范畴。尽管在大数据时代的现实图景中,任何客观物理实在都具备被数字化为数据的可能,但存在成为数据的可能和已然尽皆成为数据并被记录下来尚有差距。除了个人隐私信息外,个人的私生活安宁或个人自主决定的私人事务都未必会以个人信息的形态展现,个人隐私的边界是大于个人隐私信息。据此,个人信息与隐私是一种交叉重合的关系,不是所有的个人信息都是个人隐私,也不是所有的隐私都是个人信息。但必须承认的是,由于二者范畴上的交叉与重合,个人隐私常通过个人信息的外在形式表现出来,这也是为何我国的《民法总则》以及即将施行的《中华人民共和国民法典》虽然明确宣告了私法对个人隐私、个人信息区分保护的“二元论”模式,但从法院的判例来看,不乏采取“一元论”保护模式的司法实践。因此,有学者指出,在《民法总则》已对隐私与信息进行区分而作二元保护的立法模式下,将隐私混同于个人信息会导致二者救济措施上的冲突。[26]同样,在刑法中,对隐私与个人信息不以区分的“一元论”模式也会让产生罪刑是否相适应的疑虑。贝卡利亚曾倡导构建一个对应不同阶梯的越轨行为,相应的、由最强到最弱的刑罚阶梯。[27]尽管他所设想的状态在现实中几乎无法科学合理的实现,但罪刑相适应原则仍是各国立法者所必须恪守的立法精神。设置隐私保护的刑法路径,必须按照社会危害性程度不同以及公民个人隐私的敏感层,作顺序排列,配以不同的刑种、刑罚幅度和轻重刑比例,才能确保刑法路径的合理性。

不仅存在理论上的问题,“一元论”的立法模式在司法实践中也暴露出诸多的不适宜。我国司法实践中较为典型的涉及侵犯他人隐私权案例为2015年北京的“优衣库事件”。由于刑法缺乏对隐私权的独立保护,只能对该案的嫌疑人邓某某以涉嫌传播淫秽物品罪为由予以刑事拘留。个人信息的隐私问题是大数据时代的顶层问题,如何协调信息使用与个人隐私保护两个看似背离的价值维度,离不开立法对利益关系的调节从而实现保护和适用的共赢。但“一元论”的保护模式并不能适应大数据时代的特殊社会背景。虽然数字化技术的应用使得几乎所有个人信息都能与隐私产生关联,但单以个人信息的保护标准很难做到对隐私保护的面面俱到,而侧重于隐私保护的严苛标准进行相关规制又将对个人信息的合理使用产生抑制。

(2)行刑责任衔接的相关问题。我国个人信息保护立法的暂时缺位导致了信息犯罪立法的协调性存在欠缺,最直观的问题便是现状下信息犯罪行刑责任的衔接困境。

刑法效力的发挥不仅需要自身完备,还必须依赖配套法律的整体合力,这就需要信息犯罪的刑事立法与行政制裁手段协调一致,进而形成立体式的防护体系。值得肯定的是,侵犯公民个人信息罪在罪状的设计上选择了空白罪状,即由相对应的行政法来规定信息犯罪的构成要件,这样的法律设计既保证了该罪能够较为及时地适应信息犯罪发展的灵活性,也为公民个人信息的合法使用腾出了法律空间,符合信息技术发展的需要。

问题在于,《个人信息保护法》时至今日仍未出台,意味着我国尚不存在统一、完备的行政法律制裁体系与刑事制裁相衔接,而现行的《治安管理处罚法》也并未就侵犯公民个人信息的违法行为制定罚则,在没有信息立法设置行政责任的前提下,刑事法律先行并作出规定,不符合对侵犯个人信息行为“处罚-刑罚”的阶梯式制裁模式的科学设置。尽管我国《网络安全法》第44条强调了个人和组织不得侵犯他人个人信息的禁止性义务,第64条设置了侵犯个人信息违法行为的行政责任,但该法是规范网络空间安全管理方面问题的基础性法律,约束的是网络领域的相关失范行为,能否涵盖大数据时代不同类型的侵犯个人信息行为自然不言而喻。在医疗领域,最新审议通过的《中华人民共和国基本医疗卫生与健康促进法》也通过第92条和第105条体现了我国对个人健康信息保护的立法举措。但立法者似乎也未考虑到法律责任之间的衔接问题,虽然告知对违反该法规定且构成违反治安管理行为的,依法给予治安管理处罚,但《治安管理处罚法》并未提供这样的制度供给。此外,如果在刑法中采取“二元论”的保护模式,将隐私权作为独立的犯罪客体予以保护,相关行政立法中暴露出的滞后性也不能完全适应惩治隐私犯罪需要。《治安管理处罚法》第42条对侵犯他人隐私行为的惩治相对于《网络安全法》第64条的责任设置过于宽松,这与《个人信息保护法(专家建议稿)》强化个人敏感信息保护和强化个人一般信息利用的基础理念存在冲突。

完备的法律体系,尤其是刑法前置法律的存在是保证刑法发挥效力的必要前提。行刑责任衔接的缺陷以及相关法律责任间的不协调都将制约刑法对个人隐私的保护效力。

四、大数据时代个人隐私保护刑法路径的构造

大数据时代的到来标志着人工智能技术的崛起,作为机器深度学习的基础,人工神经网络具有的非线性、非局限性、非常定性和非凸性的基本特征不同于传统法律依托的通过回溯过去来规范当下进而稳定未来的时间性技术。人工智能的崛起,使得世界正在建构一个由人、物和信息组成的全面网络,这些不受主权国家控制的技术力量已经对各国民众的平等和自由产生了深刻影响,给当代社会带来了各种潜在风险。新的法律形态需要根据新信息和新环境在认知性的意义上进行自我调整和迭代,只有这样,才能更好适应各种变化与风险。否则,依赖于规律、经验的传统刑事法规制在面对大数据时代的新型风险时,往往会陷入规则失效或无助的窘境。[28]笔者在本文中试图以人工智能的隐私风险为视角分析刑法介入隐私保护的必要性以及现行刑法保护路径的缺陷,进而认为,在大数据时代,对隐私保护与信息使用间利益冲突的协调需要我国隐私保护的相关刑事立法的与时俱进,矫正当前隐私保护刑法的滞后性、片面性以及法律体系间不协调性。具体而言,大数据时代个人隐私保护刑法路径的构造具体从以下几个方面予以考量。

1. 大数据时代个人隐私保护刑法路径的立法理念

新技术的驱动与革新常常迫使人类重新定义自己的生活,然而,大数据对人类生活的影响与改变并不局限于某一个方面,相反,它会冲击甚至重新塑造所有的概念。在这些改变中,最为直接的莫过于对隐私概念的模糊。当能够释放出海量数据的智能设备遍布周遭并不断记载着用户健康指数、生活偏好、行动轨迹、工作履历的时候,被交出去的个人隐私自然就越来越多,信息安全隐患就越来越严重。早在1996年由美国信用调查机构Equifax与隐私学者Alan Westin合作进行的调查中,便有89%的受访美国公众担心自己的隐私安全。[23]58时至今日,即便隐私问题伴随着大数据技术的应用而趋于严重,人们却依然会使用大数据技术带来的便捷。大数据时代标志着社会从有形的物质创造价值转向无形的信息创造价值,让整个社会对于信息资源的依赖性加强。一方面,个体对涉及隐私的个人信息的保护诉求更为强烈,另一方面,个体利用个人信息包括利用他人信息的需求也更为普遍。皮勇教授指出,大数据时代的信息流动自由为社会发展带来了全新的活力,智慧社会环境下的经济模式离不开数据的开放和利用。对隐私的过度保护不利于社会的发展,“一个人的隐私可以减少另一个人的自主权”。[29]而在当今社会,技术的发展对个人隐私领域的挤占并没有让所有社会哀鸿遍野。因此,智能社会的隐私善治可能需要我们突破隐私固有的概念,单方面地强调隐私保护会限制个体之间沟通与识别,今天的问题不是我们该不该妨碍信息的自由流通,而是如何妥善地使用信息。因此,提高信息、数据的安全性,完善对信息主体隐私的保护是人工智能乃至所有大数据技术进一步发展的关键。

既然人工智能对隐私存在的天然的风险性,那么信息的“适当”流通、分享则是大数据时代隐私场景公正性理论的逻辑起点。隐私规制不是单向地基于权利的保护或者对侵权行为的压制,而是以社会整体利益作为考量,基于利益关系的平衡。同时,鉴于隐私权的本质是人格尊严无比神圣。维护人格尊严是私人信息不希望且不应当被看到、知晓、干涉的内在原因。因此,必须将个人对人格尊严的认识和公众对人格尊严的一般理解相结合来界定隐私权,只有深刻认识其主观标准才能真正解释隐私权的内涵,否则,隐私权的范围就不能确定,更无法对侵害隐私权的行为及其危害性予以认定。[30]主客观判断标准的动态性显然更契合大数据时代界定个人隐私的理性逻辑。

2. 大数据时代个人隐私的理性定位

何谓隐私?至今还没有一个普遍化的定义被广为接受。寻找充分而适当的定义就是在寻找本质上的观念或是辨识性的特征。我国学者将个人隐私界定为私人生活安宁不受他人非法干扰,私人信息保密不受他人非法搜集、刺探和公开。[10]而面对隐私这一“难懂又模棱两可”的概念的界定,理查德·波斯纳的视角有一定的可借鉴性。波斯纳并不强调人格尊严、人权保护之类的价值维护,将隐私视为人们为了谋求好处而进行的投资,并对隐私的非经济学分析予以批判。这一正一反的论证体现了波斯纳对隐私所坚持的不能绝对保护隐私而要兼顾其他社会价值、利益的法学基本立场。但波斯纳将隐私视为中间产品的经济思维在一些论述上不免有些激进,他认为,诸多主张隐私的要求往往涉及到不光彩的信息,人们之所以意欲隐瞒一些私人信息,在于这些信息一旦披露,就会改变他们一直试图利用的假象。譬如,身患重症的雇员对雇主隐瞒自己的病情。如果说人们隐匿个人信息是基于这样的目的,从经济学上看,基于这样的信息的法律保护好比允许商品销售中的欺诈行为。[31]然而,将个人隐私的恶意隐瞒作为获利工具只是隐私的一小部分内容。隐私的诸多案例已经表明个人对一些私密信息的遮掩并非纯粹为了利益获得,而在于避免自己人格价值的受损。况且,根据一般的生活常识,病人有时不愿意向包括亲属在内的他人透露自己的疾病的情况,特别是传染病等可能引发一定社会后果的疾病情况。病人的诊疗信息一旦泄露,就可能使病人面临失去工作、招致他人疏远的风险。

总而言之,不同社会、不同地域、不同时空下人们对于隐私的理解可能有天壤之别。资产阶级革命带来的人文主义和自由主义思想,工业革命和电气革命催生的物质文明,使得隐私的观念先在西方社会深入人心,并形成了两种不同的隐私文化。总体上来说,美国从自由的角度理解隐私,而欧洲大陆将隐私保护植根于人格尊严之上。这也决定了两种隐私制度拥有不同的价值核心,前者是与政府公权力抗衡的自由利益,后者是与大众媒体对抗的个人尊严利益。[32]美国人在调查莱温斯基案时所公开的大量淫秽材料让欧洲人觉得美国人不明白何谓对隐私的保护。这种隐私观念的冲突植根于不同法域下的信息规制。大陆法热衷于对日常生活领域的各种私密信息进行面面俱到的保护,但美国法似乎允许在特定场合对他人私密信息的公开,例如,信用报告中对他人信息的披露。[33]不同国家的法律对隐私的定位具有明显的差异性,不同人之间对隐私的直觉也无法形成统一的认知。进入大数据时代,我们正逐渐将隐私的意义从西方文化的拘束之中解放出来,时代特性让隐私这个概念在人们心中发生着微妙地改变。在过去,健康状况、餐饮习惯、收入乃至婚姻状况绝对归入隐私的范畴内,但大数据时代的到来,这些私密的内容演化为诸如人工智能之类的大数据技术发展、进阶从而更好地服务于人类的基础,对这些信息的披露可能就不会侵犯个人的隐私。

对于隐私定义的众说纷纭,美国学者艾伦将其归咎于隐私在用法与意义上的多边。隐私一词所指向的对象与使用的方式、情景包含了多种意义与情况,使得我们很难为隐私下一个单一的定义来穷尽解释隐私这个概念。而斯库曼认为,虽然隐私的概念存在狭义、广义之分,但在这些有宽有窄的隐私概念中,隐私其实让人们可以对应外在世界,决定在公共领域中如何展现自己,隐私让人具备能动性,发展个体的主体性。[13]67−68换言之,在大数据时代如何回答何谓隐私的问题,取决于我们对于信息社会所赋予的意义与抱有的态度。

3. 大数据时代隐私保护刑法路径的构造逻辑

首先,大数据时代,诸如人工智能之类的变革性技术对社会生活各个领域的渗透与适用必然迫使人类重新思考这一技术所带来的问题,与现有法律制度的不兼容之处,以及因此可能引发的政策和法律上的变化。但技术再强大也不宜将其认定为独立的刑事责任主体,以人工智能为例,现实中的人工智能“不具备单独的认识和意志因素”,并且人工智能的行为“来源于人类思维的输出”。[34]人类警惕人工智能“黑箱”中产生我们无法揣测的危险思维,但国家刑罚权的发动相较于其他的法规范措施,常会被要求处于更为节制的地位,对于各种可能会影响到社会发展的潜在危险源,刑法不至于皆要作出立即的对抗反应。为了能够确实掌握人工智能隐私风险在现实中的辐射范围,那么在对行为特质予以类型化的过程中,就必须依据社会成员的共同生活中那些于知识经验而言可以确定且把握的客观性利益,而不能只是依据那些经验上无法具体描述的先验性道德规则,甚至是依据个人纯粹主观上的利益感受,特别是这些主观上的利益往往会被恣意地冠上道德的形象,导致刑法理论体系的崩溃。因此,大数据时代隐私保护刑法路径的构造逻辑需要着眼于技术本身对相关法律秩序的违反从而产生的对法益的侵害以及与之相当的危险性。

其次,个人信息不仅包含个人隐私信息,还可能包含不涉及个人隐私的信息,隐私信息与非隐私的个人信息都需要法律保护,但保护的程度应有所不同。鉴于隐私与个人信息在范畴上的交叉以及司法实践中的不易区分,在隐私保护的顶层设计中将个人信息的内容完全地抽离出去并不现实。因此,在隐私保护的刑法领域,区分个人信息与个人隐私的敏感层级,侧重个人隐私的保护和非隐私个人信息的利用,更能确保刑法的谦抑性和责任配置的层次性。在数据保护颇有建树的欧盟,上世纪80年代便确立了特殊类型的数据保护制度。信息敏感层级的不同,信息使用对个人隐私的风险也各异。通过层级的划分能够在突出法律对特殊类型的个人信息保护的同时不妨碍对非隐私类个人信息的合理使用。[32]同时,对涉及侵犯隐私的行为应当采取类型化管理的思维,在对信息采集阶段不法行为的入罪化报以谨慎的态度、对信息收集阶段的犯罪行为配置较轻刑罚的同时,从严惩治非法使用涉及他人隐私的信息的犯罪行为。既要保证智能时代的刑法规制在保护个人隐私方面的有的放矢,也要防止犯罪圈的不当扩张扼杀了个人信息创造价值的可能。

再次,罪状的设计不能忽视对隐私风险的预防,对隐私权的保护不能满足于事后惩罚。德国刑法典中的“侵害私人生活及秘密罪”在保护个人的隐私领域时便设置了抽象危险犯的立法模式以提前刑法对侵犯个人隐私行为规制的时机。之所以创设抽象危险犯,目的是基于对风险的有效管控、节省风险管控的成本等因素,针对一些对法益侵害伴有典型危险的行为予以规制。成立抽象危险犯不以是害结果为必要条件,特定行为只要具有发展成实害的可能行就符合定罪的依据。行为是否具有侵害法益的危险性,往往是经过事前的风险预测判断,但这里的风险预测并非统计学意义上的风险评估。追求数值上的精准只会让条文在复杂的社会事实面前丧失适用的灵活性。刑法中的风险预测仅是国家站在风险管控的立场确认对于社会中的特殊风险需要以刑法以应对,换言之,这是一道刑事政策的论述题而不是一道数学题。控制风险的理念很大程度上已经支配了当代刑事政策的发展走向。[35]我国刑法中涉及保护隐私权的罪名的成立要么要求“情节严重”才予以处罚,要么限定为“造成严重后果”才予以追诉,刑法保护路径的启动在应接不暇的隐私侵犯与不断增加的隐私风险面前,显得被动且消极。因此,对既有保护个人隐私的刑法条文的修正可考虑删除上述对启动处罚权甚至追诉权的限制,从而保证刑法对侵犯个人隐私行为的有效介入。

最后,隐私保护的刑事立法要与行政、民事的制裁手段保持协调一致,才能共同服务于隐私犯罪行为的惩治。总体而言,民事责任、行政责任的构造都选择了个人隐私与个人信息的“二元论”保护模式,立法者也应保证侵犯他人信息、隐私行为的刑事法律责任与整个法律体系衔接。

① 《网络安全法》第76条规定:“个人信息,是指以电子或者其他方式记录的能够单独或者与其他信息结合识别自然人个人身份的各种信息,包括但不仅限于自然人的姓名、出生日期、身份证件号码、个人生物识别信息、住址、电话号码等”。

② 侵犯隐私的行为,情节较重的,仅处五日以上十日以下拘留,可以并处五百元以下罚款。而对侵犯个人信息,尚不构成犯罪的,将由公安机关没收违法所得,并处违法所得一倍以上十倍以下罚款,没有违法所得的,处一百万元以下罚款。

参考文献
[1]
周晓垣. 人工智能: 开启颠覆性智能时代. 北京: 台海出版社, 2018: 153.
[2]
朱山. 大数据时代如何保护个人隐私. 人民政协报, 2020–04–02(003).
[3]
余成峰. 人工智能时代的范式转移与法律变革. 科学与社会, 2019, 9(4): 95.
[4]
李彦宏. 智能革命: 迎接人工智能时代的社会、经济与文化变革. 北京: 中信出版集团股份有限公司, 2017: 315.
[5]
胡凌. 人工智能的法律想象. 文化纵横, 2017(2): 111.
[6]
埃森哲. 1/3的金融公司缺乏隐私风险计划. http://www.199it.com/archives/1030142.html. [2020−05−02].
[7]
Braze. Data Privacy Report. www.wakefieldresearch.com. [2020−06−10].
[8]
李彦宏. 智能革命: 迎接人工智能时代的社会、经济与文化变革. 北京: 中信出版集团股份有限公司, 2017: 295.
[9]
埃里克·希尔根多夫. 德国刑法学: 从传统到现代. 江溯等译. 北京: 北京大学出版社, 2015: 375−377.
[10]
张新宝. 从隐私到个人信息: 利益再衡量的理论与制度安排. 中国法学, 2015(3): 38-59.
[11]
张勇. 个人信息去识别化的刑法应对. 国家检察官学院学报, 2018(4): 96.
[12]
金耀. 个人信息去身份的法理基础与规范重塑. 法学评论, 2017(3): 120.
[13]
吴亮. 网络时代个人隐私权及其行政法保障. 北京: 中国政法大学出版社, 2016.
[14]
王钢. 被害人承诺的体系定位. 比较法研究, 2019(4): 29.
[15]
田野. 大数据时代知情同意原则的困境与出—以生物资料库的个人信息保护为例. 法制与社会发展, 2018(6): 114.
[16]
郑志峰. 人工智能时代的隐私保护. 法律科学(西北政法大学学报), 2019(2): 54.
[17]
陈冉. 论大数据背景下隐私权的刑法保护. 中国刑事法杂志, 2017(3): 67.
[18]
唐娜·玛维, 唐娜J·斯洛文斯琪. 移动医疗: 智能化时代的来临. 王振湘, 杜莹婧译. 北京: 机械工业出版社, 2016: 55.
[19]
高铭暄, 马克昌. 刑法学. 北京: 北京大学出版社, 2011: 536.
[20]
汪东升. 个人信息的刑法保护. 北京: 法律出版社, 2019: 19.
[21]
叶良芳, 应家赟. 非法获取公民个人信息罪之“公民个人信息”的教义学阐释—以《刑事审判参考》第1009号案例为样本. 浙江社会科学, 2016(4): 74.
[22]
沈屮, 许文洁. 隐私权论兼析人格权. 上海: 上海人民出版社, 2010: 80.
[23]
张民安. 信息性隐私权研究: 信息性隐私权的生产、发展、适用范围和争议. 广州: 中山大学出版社, 2014.
[24]
齐爱民. 拯救信息社会中的人格: 个人信息保护法总论. 北京: 北京大学出版社, 2009: 78.
[25]
赵秉志. 《刑法修正案(七)》专题研究. 北京: 北京师范大学出版社, 2011: 149.
[26]
李永军. 论《民法总则》中个人隐私与信息的“二元制”保护及请求权基础. 浙江工商大学学报, 2017(3): 21.
[27]
贝卡利亚. 论犯罪与刑罚. 黄风译. 北京: 中国法制出版社, 2005: 80−81.
[28]
吴何奇. 风险社会环境犯罪治理模式的调整与补充. 大连理工大学学报(社会科学版), 2020, 41(2): 96.
[29]
皮勇, 王肃之. 智慧社会环境下个人信息的刑法保护. 北京: 人民出版社, 2018: 218−219.
[30]
杨永志. 论隐私权的刑法保护. 河北法学, 2007, 25(12): 101. DOI: 10.3969/j.issn.1002-3933.2007.12.019.
[31]
理查德·A. 波斯纳. 论隐私权. 常鹏翱译. 私法, 2011, (2): 196.
[32]
Whitman, J. Q.. The Two Western Cultures of Privacy: Dignity Versus Liberty. The Yale Law Journal, 2004, (6): 1221.
[33]
詹姆士·Q·惠特曼. 西方文明中的两种隐私文化: 尊严VS自由. 杨帆译. 私法, 2006, (1): 105.
[34]
熊波. 人工智能刑事风险的样态评价与规制理念. 探索与争鸣, 2019(5): 134.
[35]
古承宗. 刑法的象征化与规制理性. 台北: 元照出版公司, 2017: 36.
The Criminal Law of Personal Privacy Protection in the Era of Big Data
        ——From the Privacy Risk of Medical Artificial Intelligence
WU He-qi     
School of Law, Shanghai University of Finance and Economics
Abstract: In the era of big data, artificial intelligence technology, including medical artificial intelligence, has been widely used in all aspects of scientific research and social life. As the underlying logic of artificial intelligence is the in-depth mining and analysis of massive data, how to protect the privacy of citizens from being violated in the process of using data has become an important issue for privacy protection in the era of big data. As the last line of defense to adjust social relations, the necessity of protecting privacy depends on its mission in regulating the development of technology and the fact that relying only on other non-criminal means is not enough to protect personal privacy. There is no legal provision regarding privacy as the independent object in the current criminal law of our country. The privacy protection under this path is flawed in the system design, which cannot provide sufficient system supply for the privacy protection in the era of big data. The construction of the criminal law path of personal privacy protection in the era of big data requires firstly to clarify the legislative concept of the criminal law path of personal privacy protection, secondly to rationally locate the connotation of personal privacy, and finally to correct the defects of the current system based on the above contents.
Key words: big data era    artificial intelligence    privacy risk    criminal law protection    

作者简介:吴何奇,上海财经大学法学院博士研究生。研究方向为刑法学、犯罪学。
项目资助:中央高校基本科研业务费专项资金项目“社会转型背景下刑罚变革研究”(2018110301)。