近年来,科技伦理的审查工作引起了国家的高度关注。2019年7月,中央全面深化改革委员会第九次会议上审议通过了《国家科技伦理委员会组建方案》。同年10月,国家伦理委员会正式成立,下设人工智能专委会。2021年12月《关于加强科技伦理治理的指导意见》在中央全面深化改革委员会第二十三次会议上审议通过,文中强调“开展科技活动应进行科技伦理风险评估或审查。涉及人、实验动物的科技活动,应当按规定由本单位科技伦理(审查)委员会审查批准,不具备设立科技伦理(审查)委员会条件的单位,应委托其他单位科技伦理(审查)委员会开展审查。”2022年9月初,深圳市出台国内首部人工智能产业专项立法《深圳经济特区人工智能产业促进条例》,该条例规定,市政府应建立人工智能伦理委员会,履行各种职责,如研究和制定人工智能领域的伦理和安全标准,并发布人工智能伦理和安全实践指南。9月底,上海市发布人工智能省级法规《上海市促进人工智能产业发展条例》,其中提出要顺应人工智能快速迭代的特点,设立人工智能伦理专家委员会并履行一系列的人工智能伦理治理相关职责。2023年2月,《2023上海人工智能安全伦理倡议书》发布,第一条就提出要建设上海市人工智能专家伦理委员会。9月7日,《科技伦理审查办法(试行)》正式发布,其中特别规定“从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。”可以看出,探索人工智能伦理审查新范式已成为一个亟待解决的重点问题。需要强调的是,人工智能伦理审查需要范式创新,即从理论框架到方法模型全方位创新而非仅仅改变方式方法,以及一些具体的操作手段。人工智能伦理审查范式创新应该保留传统范式的积极因素,并在此基础上进行适应人工智能技术特点的创新。
一、传统的伦理审查范式考虑到科技发展的风险性,对其进行伦理规范势在必行。然而,伦理规范需要强有力的制度支持才能有效运作。伦理审查是伦理规范作用于科技研究的重要制度保证。
伦理规范的制度化构成可以从两条路径追溯:其一可以追溯到早期的行业工会,主要表现为行业准则和行业标准。1856年,德国工程师协会成立,它致力于通过技术手段的开发和有效应用改进人类的生存条件,承担工程师的培养、继续教育以及给政府、议会和社会提供咨询等方面的工作 [1]。1866年,蒸汽锅炉操作员在曼海姆成立了德国蒸汽锅炉监督协会,旨在为生产设备提供安全保障,也就是如今大名鼎鼎的德国技术监督协会(TüV)的前身。1950年德国工程师协会制定了《工程师的声明》,并于2002年在此基础上制定实施了《工程职业的伦理守则》。这一守则被誉为“德国技术伦理学制度化的最好的阐释”。可以看出,德国对于科研活动的伦理向度的制度化管理前后历经150余年,最终形成了一份良好的伦理守则。但这与如今常见的伦理审查存在一定差异,缺少完整的制度,更多的是类似行业标准。
其二可以追溯到生命医学伦理,也就是现在普遍施行的科技伦理审查机制。生命医学伦理最早可以追溯到《希波克拉底誓言》,那时的生命医学伦理也是一种职业伦理。但在此后的近2000年中生命伦理的制度化进程几乎是停滞的。这种情况直至20世纪40年代开始发生转变。在二战结束后的纽伦堡审判中,纳粹德国的医生和生命科学家被指控对集中营中的战俘进行了惨无人道的人体实验,为了杜绝此类暴行再次发生,《纽伦堡法典》诞生了。《纽伦堡法典》规定了人体实验的基本原则,作为国际上进行人体实验的行为规范流传至今。在《纽伦堡法典》中人类的核心价值得到了彰显,对人权的保护更是其重中之重。《纽伦堡法典》在颁布之后不久,就被51个国家承认接受,并在之后的十几至二十年间逐渐成为许多专业机构和政府条例的范本,其精神为《世界人权宣言》所吸收。1964年,世界医学协会发表《赫尔辛基宣言》,作为《纽伦堡法典》的补充,进一步规范了生命科学的发展。值得一提的是,该宣言在之后的世界医学协会联合大会上进行过多次修订,召开伦理委员会批准人体实验研究方案就是在《赫尔辛基宣言》的第一次修订中写入的,也是伦理审查制度首次被写入国际指南 [2]。自此,生命伦理学以及伦理审查制度进入了高速发展期。
20世纪中后叶,生物医学领域被爆出了一系列丑闻,如柳溪乙肝试验、塔斯基吉梅毒试验等,引起了公众对于医疗试验的恐慌。在这种情况下,为了满足公众的呼吁,消除恐慌,美国政府成立了保护参加生物医学和行为学研究人体实验对象的全国委员会。该委员会试图对如何保护生物医学及行为研究中的人体受试者提出切实可行的建议,明确适用所有人体研究的基本伦理原则,以及如何在研究中贯彻执行。1978年该协会发布了《贝尔蒙报告》,阐述了人体研究的伦理原则、医疗与医学研究的界限等问题。由世界卫生组织设立的国际医学科学组织理事会(CIOMS)制定的涉及人类受试者的生物医学研究国际伦理指南也规定了伦理委员会的要求。CIOMS指南于1993年首次发布,虽没有法律效力,但它们在起草国家伦理委员会法规方面具有影响力。
《纽伦堡法典》《赫尔辛基宣言》《贝尔蒙报告》等文件奠定了生命医学伦理审查的原则基础,这些文件的内容后来被汇总成为生命医学伦理学的四大原则,即尊重自主原则、不伤害原则、有利原则和公正原则。生命医学伦理学四大原则如今已经超出生命医学研究的范畴而成为几乎所有涉及人类受试者(参与者)的研究的伦理审查的基本原则。我国首部伦理审查体系的认证标准是2014年12月批准的《涉及人的生物医学研究伦理审查体系要求》,其中的审查规定就体现了生命医学伦理学四大原则的精神。
二、大模型时代人工智能伦理审查的新挑战对于现行的伦理审查制度有很多批评的声音,尤其是社会科学学者对此尤为不满。来自新西兰的两位社会学学者提出“基于社群的参与式研究”(Community-Based Participatory Research,CBPR)作为一种新的研究范式已经在多个领域推广,然而这种研究范式却几乎不具备得到以新西兰伦理委员会(NZEC)为代表的主流伦理审查委员会认可的能力 [3]。英国学者也指出对于社会科学方法的非临床研究来说,当下的伦理审查制度提出了错误的问题,并将研究置于错误的标准 [4]。“研究伦理委员会通常熟悉的方法基准以及构成质量评估基础的方法基准不符合许多形式的定性调查的目的和目标,也不符合其描述社会过程/机制和使社会实践的复杂性可见的更繁复的目标。”[5]作为批判性研究伦理审查制度的专著,《道德诱惑》提出当下的伦理审查制度是基于生物医学对研究的理解 [6]。在伦理审查的压力下,社会科学方法的多样性和丰富性正在下降[7]。
所有这些对伦理审查制度的批判说明了一个早在20世纪就曾被指出过的问题,即任何伦理准则总是离不开其背后的历史背景和学科背景的 [8]。与社会科学的情况类似,人工智能的伦理审查与生命科学的伦理审查有一定的相似性,但也不尽相同,这主要是人工智能技术的特殊性造成的。正如宝拉·波登顿(Paula Boddington)所说“人工智能提出的一些问题与其他问题是共同的……但是,考虑人工智能中是否存在任何独特的道德问题也是很重要的,因为如果我们仅仅面对一系列非常广泛的道德问题,而这些问题没有关注人工智能的具体情况,我们最终可能会得到对具体情况缺乏足够把握以产生实质性影响的准则和原则。”[9]一些学者认为生物医学伦理仍然提供了有价值的起点,只需要进行轻微调整或重新解释即可延伸到人工智能领域[10]。但是,生命科学和人工智能之间存在的重大差异,引发我们对现有伦理框架适用性的质疑[11]。汤姆·比彻姆(Tom Beauchamp)和詹姆斯·邱卓思(James Childress)提出的四原则伦理学围绕人的生命权利而设计[12],而脱离人类主观偏见与死亡风险的智能体需要全新的伦理规范体系。在简单地将生物医学伦理原则应用到人工智能领域之前,伦理学家有必要仔细重新审视人工智能中诸如黑箱、复杂因果关系以及公平性等核心概念。
传统的生命医学伦理审查主要关注的是对生命的尊重,包括保护个人隐私,保证知情同意,以及避免对个体造成伤害等。然而,这种伦理审查的框架在面对人工智能可能会遇到一些问题和挑战。随着ChatGPT的发布,人工智能研究已经步入大模型时代,这将进一步加深人工智能研究与传统伦理审查之间的鸿沟。
首先,最重要的是,大模型的黑箱性质,增加了审查其决策过程及结果的难度,这与生命医学伦理强调的程序透明度存在张力。黑箱是当前主流的人工智能技术——深度学习的本质特征,这意味着人类无法调查算法,也就是说,它们是认知不透明的系统,任何人类或人类群体都无法仔细检查以确定其内部状态 [13]。通常,黑箱算法不遵循众所周知的规则(例如,布尔决策规则算法),但可以用标记数据“训练”以识别数据中的模式或相关性,从而可以对新数据进行分类。即使我们声称理解了控制算法的底层标签和数学原理,但仍然很复杂,甚至不可能声称对此类系统的内部工作有深入了解 [14]。
因此,与生命医学基于现实的因果性不同,人工智能是基于概率的相关性。换句话说,药物或手术对人体的干预是可预期、可观察和可解释的,而深度学习对数据的训练仅仅在基本架构的逻辑关系上是存在相关关系的,很难以一种日常使用的因果关系去解释。如果它出现了错误,这个错误不仅可能会非常离谱,而且可能根本无法找到导致这一错误的原因。卡内基梅隆大学是人工智能领域的传统强校,在教师之间的非正式调查中,绝大多数人表示,不使用深度学习等人工智能方法的首要原因是他们不知道如何解释结果 [15]。当下人工智能的评测方法主要是通过评测数据集来进行。这些评测数据集通常包含了针对特定任务采集并标注的输入-输出样例对[16]。研究人员会训练出满足特定任务要求的AI系统,然后利用评测数据集对系统性能进行量化评估[17]。目前常见的评测数据集包括图像分类、语音识别、机器翻译等领域的基准测试集。这些数据集的质量直接影响了对AI系统能力的评判[18]。近年来,随着技术的进步,研究者也越来越重视评测数据集的多样性[19]、案例覆盖范围[20]等方面的考量。一些竞赛平台也会围绕特定任务发布新的评测基准和排行榜(Leaderboard)[21]。总体来说,评测数据集仍是当前主流的AI系统评估方式,但其本身也面临一些挑战,如测试用例的代表性[22]、人工标注带来的偏差[23]等。
这些挑战导致传统的伦理审查范式对于人工智能不适用,因为研究者既不可能基于确定的因果性完全预测人工智能技术的风险,也不可能在出现风险后以标准的流程来修正或解决,只能根据研究者的个人经验来调整算法结构以期输出合适的结果。因此,与生命医学伦理审查更注重事前审查不同,对于人工智能来说事中以及事后审查往往更加重要,设立敏捷的事中和事后审查是确保人工智能健康发展的必由之路。
其次,在传统的生命医学伦理审查中,当研究结果产生负面影响时,责任通常归属于研究者。然而,在AI系统中,当系统做出错误的决策或者造成伤害时,责任归属可能会变得模糊。例如,如果AI系统被用来生成虚假的新闻或者恶意的信息,那么责任应该归属于谁?是设计AI系统的公司,还是使用AI系统的人,或者是提供训练数据的人?这被称为“责任空白”问题,安德烈亚斯·马蒂亚斯(Andreas Matthias)提出,“传统上,机器的制造商/操作员(在道德和法律上)应对其操作的后果负责。基于神经网络、遗传算法和代理架构的自主学习机器创造了一种新的局面,在这种情况下,机器的制造商/操作员原则上不再能够预测未来的机器行为,因此无法对其承担道德责任。社会必须决定是不再使用这种机器(这不是一个现实的选择),还是面临责任鸿沟,这是传统的责任归属观念无法弥补的。”[24]随着人工智能技术的应用场景不断增加,在多个场景下都会可预见地面临这一问题,例如自动驾驶汽车版本的电车难题。
第三,在生命医学研究中,研究者需要确保他们的研究方法公平,不会对任何群体产生歧视。然而,人工智能技术是一项赋能技术,它能够增强完成任务的速度和效率、扩展原领域(技术)的影响力和范围,使得原来被隐藏的伦理问题再次引起人们的关注。最具代表性的是算法歧视问题。算法歧视本质上放大和强化了现有的、有意或无意的社会歧视。算法通过“贴标签”的运算原理,不可避免地将显性或隐性的偏见嵌入其中,从而放大了现有的偏见。开发者在认识和解释世界的过程中所带有的偏见,也会影响到算法的设计。日常生活中的数据往往包含人类社会固有的隐性偏见,这些偏见在算法训练过程中被植入,其中许多消极的偏见通过决策算法转化为对人的算法歧视 [25]。
此外,知情同意是传统生命医学伦理审查中的核心原则之一,它要求参与研究的个体必须在事先被充分告知研究目的、程序、风险等信息的基础上自愿同意参与。但是,大模型时代人工智能训练的数据来源往往广泛地散落在互联网各处,由于数据的来源广泛且复杂,获取每一个数据生成者的知情同意几乎是不可能的。并且,每一个数据对模型和数据主体产生的具体影响也是不可追溯的,如果遵循传统的知情同意审查模式,大模型发展将寸步难行。因此,亟须进行人工智能伦理审查范式革新,提供在大模型训练中合理应用知情同意原则,保护数据提供者权益的新制度。
与传统生命医学研究不同,大规模的人工智能模型训练往往需要大量用户数据,这使得数据隐私保护面临巨大挑战。大模型训练使用的数据可复制性强、传播范围广,一旦泄露,造成的隐私危害将远超生物样本。且数据加密也面临被破解的风险。可以说,依靠传统生命医学伦理审查的方法很难有效地保护大模型训练中使用数据的隐私安全。这需要我们构建新的伦理规范,在算法设计、数据采集、模型训练等各个阶段强化对个人隐私的保护,实现人工智能技术的伦理化发展。
三、人工智能伦理审查的实践探索与启示基于人工智能技术的特殊属性,传统的伦理审查模式在此领域中并不适用,人工智能的伦理审查面临种种挑战,但保障人工智能和伦理健康发展已经成为全世界共识。如何推动人工智能伦理从原则到落地已成为世界范围内的重要议题。如果人工智能伦理仅停留在理论和原则层面将不可避免被诟病为“伦理洗蓝”。因此各方正积极探索一种新的、符合人工智能技术发展趋势的伦理审查方式。如何以制度形式保障人工智能的合伦理性将是伦理审查范式革新的核心议题。国内外如OpenAI、谷歌、微软和商汤等代表性大公司,由于其非政府机构的主体性质优势,成功地率先推出了一些创新性的审查实践,选择了一条“原则引领,流程监管,技术工具辅助”的道路,这为人工智能伦理审查范式创新提供了重要的实践案例参考。
目前克服理论和实践之间的差距主要有三种方法,分别是伦理嵌入、伦理对齐和价值敏感设计[26]。这里所说的伦理嵌入不是理论上的伦理嵌入,而是一种实践向的方法,由斯图尔特·麦克伦南(Stuart McLennan)等人提出,指的是伦理学家和开发者从开发伊始就通过迭代和持续的过程共同解决伦理问题 [27]。这种方法通过让伦理学专家加入研发团队,融入具体设计过程,对方案进行持续伦理评估。同时,通过为工程师提供道德培训,将道德纳入人工智能工程过程中。谷歌、微软等公司的实践探索在一定意义上就属于伦理嵌入。谷歌内部对于AI伦理审查构建了一个三层的治理组织架构,第一层是产品团队本身,他们提供符合AI原则的深层次功能专业知识;第二层是一组专门的审查机构和专家小组,鼓励所有谷歌员工在整个项目开发生命周期中参与AI原则审查过程,审查所有项目的潜在隐私问题,还包括为特定产品领域量身定制的审查委员会;第三层是先进技术审查委员会(ATRC),这是一个由高级产品、研究和业务主管组成的轮值委员会,处理升级和最复杂的先例案例。在整个体系中,谷歌使用类似“判例法”的方式,作为审查标准的是谷歌人工智能原则,包括七条积极的原则和四条消极的原则
伦理嵌入的优势是能够将伦理规范嵌入人工智能产品开发的全过程,能及时发现具体伦理问题,但缺点是可能受专家个人观点和偏见影响较大,以及责任模糊等问题。技术发展过程中的情境伦理问题决定了这种嵌入式伦理方法所指的具体实践的资格。伦理嵌入的方法指出,创新和探索性实践总是会引发伦理问题,并且在具体的工程过程中会出现新的伦理问题,即在人工智能技术的发展过程中总会有特定情境的伦理问题,这启示我们在人工智能伦理审查范式创新中可以引入一个多主体参与的内部伦理审查机制,通过让伦理学专家参与研究过程,与研究人员保持交流、增进了解,进行伦理评估。
伦理对齐指在人工智能系统的设计和运作中,使其行为与人类共同的伦理价值观达成一致。其核心目标是赋予AI系统对伦理规范的认知和遵循能力,防止出现违反伦理的决策和行为[28]。IEEE就伦理对齐设计提出了详尽指南,强调需要考量透明度、可解释性、公平性等方面,并提供可验证的伦理保证[29]。与此同时,OpenAI也将价值对齐视为其安全AI研究的重要方面,通过强化学习等方式使AI内在动机符合人类共同利益[30]。实现伦理对齐的主要技术路线包括:OpenAI使用的基于人类反馈的强化学习(RLHF),通过奖励模型使模型输出结果与人类期待相符,使模型在实际任务中更加实用和安全 [31]。Anthropic使用的来自人工智能反馈的强化学习(RLAIF),利用AI的反馈作为奖励信号来训练偏好模型,能够更精确地控制模型的行为,减少对人类标签的依赖,并使模型能够更好地处理有害的查询 [32]。这些方法都有各自的侧重点,但当前还停留在理论和试验阶段,无论是OpenAI还是Anthropic都承认这是一种技术手段,并非最终的解决方案。尽管如此,伦理对齐还是对人工智能伦理审查范式创新提供了重要参考,那就是使用技术手段和技术工具来辅助伦理审查。
价值敏感设计是一种在技术设计过程中主动考量伦理价值的方法论[33]。它以“设计就是价值的实现”为核心理念,通过概念分析、参与式设计和技术实证相结合的方式,在功能性、可用性的同时兼顾伦理性[34]。第一步概念分析,通过哲学反思厘清复杂的伦理价值观念;第二步参与式设计,让相关利益方参与技术设计过程,表达其价值偏好;第三步技术实证,通过原型设计和用户测试验证设计方案。这种方法论的优点在于从一开始就考量伦理因素,融合多学科视角。但其缺点也明显,如难以在复杂利益关系中达成价值共识,过于理想化而难落地等。这一方法启示我们在创新人工智能伦理审查范式时,必须充分考虑这一跨文化价值冲突的现实,采取开放和包容的方式吸收不同观点,以避免单一标准导致的道德风险。
值得说明的是,谷歌曾在2019年3月26日短暂地成立过一个先进技术外部咨询委员会(ATEAC)用以应对人工智能伦理风险问题。然而,这个委员会的寿命仅仅只有9天,在内外部的双重压力下被迫解散。这是一个失败的案例,但同时这个过程也发人深省。这一事件引起了广泛的关注,《麻省理工科技评论》组织专家对此事撰文探讨,其中加州理工大学伦理与新兴科学小组主任帕特里克·林(Patrick Lin)认为:“如果对获得道德指导有真正的兴趣,那么你需要真正的伦理学家——在理论和应用伦理方面接受过专业培训的专家。否则,这将是对专业价值的拒绝。想象一下,如果公司想召集一个 AI 法律委员会,但其中只有一名律师(就像 AI 伦理委员会 v1.0 中只有一名哲学家一样),这将是引发严重危险的信号。”[35]圣克拉拉大学互联网道德项目主任伊琳娜·赖库(Irina Raicu)也提出:“一年四次会议不太可能产生影响,我们需要敏捷的道德投入”[35]。可以看出,人们期待人工智能的伦理审查来自真正伦理学家的敏捷治理。
各国政府也高度重视人工智能的伦理安全问题,陆续出台法律法规应对人工智能的伦理安全挑战,紧抓战略发展机遇。2023年6月14日欧洲议会通过了《人工智能法案》,要求对人工智能进行风险评估。10月30日,美国总统拜登签署通过《安全、可靠和可信赖的开发和使用人工智能》的行政命令,要求对人工智能展开新的安全评估与指导。欧盟的《人工智能法》虽然强调了伦理的重要性,但并未明确规定具体的伦理审查流程和标准。美国的《安全、可靠和可信赖的开发和使用人工智能》行政命令虽然提出了人工智能安全和安保的新标准,但对于如何具体执行这些标准并未做出明确规定。而这些恰恰是最关键的问题,也就是人工智能伦理审查的具体细节。
总之,人工智能的伦理审查是一项区别于传统生命医学伦理审查的复杂而重要的任务,需要多学科多主体的共同参与。同时,目前任何一个主体的任何一种单一的方法都无法完全解决这个难题,需要结合不同的理论和实践,寻找有效的方法不断完善和优化伦理审查机制,以确保人工智能的健康发展。
四、以美德伦理为基础的伦理审查新范式展望人工智能伦理审查的范式创新一方面要打破传统伦理审查范式以生命科学为核心而忽略了其他学科研究诉求的桎梏,另一方面也要考虑人工智能的技术特点和风险特征。需要强调的是,人工智能伦理审查范式创新是在传统伦理审查范式的基础上探索适用于人工智能技术的审查范式,而非对传统伦理审查范式的彻底否定,是革新而非革命。考虑到人工智能技术的技术特点和风险特征以及已有重要的实践案例,人工智能伦理审查新范式可以从理论创新、职能创新和方法创新这三个方面进行。在理论上,可探索以美德伦理学为基础,关注研究者伦理素养培育。在职能上,伦理委员会可拓展为伦理培训和治理功能。在方法上,可发展技术工具和指标为伦理审查提供支持,并推动价值敏感设计,实现技术伦理融合。
首先,人工智能伦理审查范式创新需要从第一原则构建新的伦理基础,而不是试图适应传统的生物医学伦理审查,即进行理论创新,进一步,理论创新将带动审查标准创新。传统的伦理审查以规范伦理学作为理论基础,新的伦理审查范式应当突破这一桎梏,本文主张以美德伦理作为理论基础。一方面,随着伦理学的发展,考虑到规范伦理学的种种弊病,美德伦理的复归已成大势所趋。另一方面,在对传统伦理审查范式的批判中美德伦理不止一次被提及。例如斯蒂芬·雅各布斯(Stephen Jacobs)和艾伦·阿珀利(Alan Apperley)建议建立一种以美德伦理为基础的新的伦理审查范式,因为以结果主义伦理学方法为基础的生物伦理模型倾向于关注“我们对他人做了什么,并倾向于忽视仅仅作为一名研究者的更广泛的道德和社会责任”[36]。同样,安娜莉·雅西(Annalee Yassi)等人也提出研究伦理委员会不仅应在健康研究中注重保护个人完整性和人类尊严,还应考虑社会正义等现实问题[37]。
事实上,从理论上分析,对于人工智能,美德伦理的确是比义务论或后果论更为合适的理论基础。与生命医学伦理学四原则不同,美德伦理学注重个体品格培养和社会责任担当,强调技术与伦理的融合。亚里士多德认为行为主体需要实践智慧,在复杂情境中作出合乎“中道”的技术应用和伦理判断,实现普遍意义上的善。这更符合人工智能技术场景多样且风险难以预判的特点。因此,人工智能伦理审查可考虑采用美德伦理学作为理论基础,强调研究者品德培育和技术伦理融合。
对于亚里士多德的美德伦理学来说,要熟练某项技艺,行为主体必须能够在异常的情况下不借助某种精确的操作指南来进行技能训练,这需要行为主体具备某种洞察力 [38]。这种洞察力就是明智或实践智慧。根据亚里士多德的理论,技艺的德性在于适度,即“中道”。在人工智能领域格外需要这一点,例如医疗影像图像识别中假阴性与假阳性之间的取舍问题。技艺行为与德性行为同样受实践智慧指导,某种意义上来说技艺行为是德性行为的前阶段。“技艺行为需要更高道德目标的约束,德性行为也需要结合技艺行为的认知能力和理性选择。”[39]具体在人工智能领域,一个有德性的人工智能研究者既需要过硬的技术水平来确保人工智能实现工具性的目的善,也应当有道德能力使其符合一种普遍意义上的善。
随着基础理论的转变,人工智能伦理审查新范式下的审查标准也自然需要发生转变,需要摒弃传统的根植于功利主义和道义论的结合体以生命医学为实践场景而制定的审查标准。人工智能技术一方面由于黑箱特性,具有很强的风险不确定性,需要在实践中逐步加深对其的认识,另一方面作为赋能技术而具有丰富的应用场景,因此制定人工智能伦理审查新范式下的审查标准需要充分考虑不确定性和场景特殊性。这与亚氏对与技艺相关的明智的论述是极其相似的,“在五种理智德性里面,明智是最难通过教与学直接获得的,而是需要通过大量经验的积累才能获得”[40]。谷歌的“判例法”方法是一种类似的尝试。本文建议或许可以采用风险清单而非确定标准的模式,引入社会实验、沙盒治理等工具,一边积累对技术风险的认识,一边最大限度地避免其风险造成的社会影响。在长期实践形成的经验的基础上逐步形成相对确定标准,并以这些标准反哺人工智能伦理,让研究者从长期的“最佳实践”中培养明智和道德德性,实现“中道”,实现美德伦理的追求。
其次,从现有的实践案例来看,人工智能伦理审查范式创新将带来职能创新,拓展伦理(审查)委员会的职能,而不仅仅将其局限于伦理审查。在高度不确定性下,以义务论和后果轮为理论基础的伦理审查很容易流于表面,正如谷歌伦理委员会的前车之鉴。伦理审查和伦理委员会不应成为科技公司市场运营的噱头,而应当真正做一些实事。美德伦理学认为对于人类的道德实践活动而言,重要的是培养稳定的道德品质,而不是为人们编撰一套行为规范。道德实践活动都是情境性的,而一般的行为规范都忽略了各种情境的特殊性,这也使得道德行为规范的实用意义大打折扣。对于人工智能来说尤为如此,其赋能技术的特点注定了其应用场景的丰富性,而在每一个具体的应用场景确保人工智能合伦理则是人工智能伦理审查的终极目的。在美德伦理的指引下,人工智能伦理审查新范式不局限于审查工作,应当对现有的审查进行改革,采用更开放性的审查,也就是说人工智能伦理审查委员会需要承担更多责任。
正如前文所述,伦理规范的制度化是存在两条路径的,伦理审查范式创新应当对两条路径兼收并蓄,避免现有伦理审查制度过于狭隘的缺陷,继承行业工会路径中承担工程师的培养、继续教育以及给政府、议会和社会提供咨询等方面工作的责任。这与美德伦理的要求也是一致的。美德伦理关注人,一个有道德的人是需要训练的,实践智慧需要一类与众不同的认知洞察力,这种理性能力需要一种综合、评估和规范的训练[41]。因而实现伦理培训、伦理生态建设等功能也将成为伦理审查委员会的重要职责。
此外,多主体参与、多学科,技术专家与伦理专家共同合作也非常重要。伦理审查需要综合型、复合型人才。自希波克拉底誓言开始,朴素的医学伦理知识便融入在医学教育中,而在人工智能领域还很鲜见。因而培养跨学科跨领域的人才参与人工智能伦理审查是范式创新的必然结果,也是美德伦理学的要求。美德伦理学注重人的品质,一个有德性的人是具有实践智慧的,这意味着他能在纷繁复杂的实践中持续稳定地彰显着自身的德性,即做出道德和伦理的选择。而对于人工智能技术来说,培养一批具有实践智慧的研究者是在不确定性的环境下使研究更加道德和合伦理的明智之举。
最后,人工智能伦理审查需要方法创新,软硬结合成为人工智能审查新范式的新特点。无论是谷歌、微软还是商汤都开发了工具来增强人工智能的公平性、隐私性等,打造可信的、负责任的人工智能。事实上,可信人工智能、价值敏感设计等研究方向已经成为科技伦理和人工智能技术共同的前沿方向。因此,未来新的人工智能伦理审查范式也必然是顺应这一趋势的,以软硬结合为特点,用技术去打开人工智能的黑箱,帮助人们理解人工智能,从而更好地使人工智能合伦理。在美德伦理的指导下,一方面将伦理审查的原则与标准与技术相结合,开发有助于伦理审查的技术工具和指数标准,使伦理审查的理论和标准技术化、工程化;另一方面促进开发者的伦理素养培养,推动价值敏感设计,努力在全流程将伦理价值嵌入、整合在技术中。Morley等人所提出的“伦理即服务”(Ethics as a Service,EaaS)概念[42]便是一个很好的例子。
五、结 论综上所述,从当下伦理审查的困境以及人工智能的伦理审查创新实践这两方面综合来看,人工智能的伦理审查亟须范式创新。人工智能伦理审查的范式创新需要从理论创新、职能创新和方法创新三个角度来进行,以理论创新支撑职能创新,以职能创新助推方法创新,以方法创新反哺理论创新,形成符合人工智能技术发展规律、符合人工智能技术特点的伦理审查范式,从而促进人工智能可持续健康发展。
① 七条积极的原则是:(1 )对社会有益;(2 )避免制造或者加深不公平的偏见;(3 )在开发中进行测试以确保安全;(4 )对人类负责;(5 )隐私原则;(6 )坚守对卓越科学的追求;(7 )在使用中考虑首要用途、技术的独特性及适用性、使用的规模这三个因素。四条消极原则是指Google 不会在以下领域设计或部署 AI:(1 )造成或可能造成伤害的技术:在有风险隐患的前提下,我们只会在我们认为益处远远大于风险的时候继续,并将纳入适当的安全限制;(2 )武器或其他技术:即主要目的或实施是造成或直接促进对人们的伤害的技术;(3 )收集或使用信息进行监视的技术:即违反国际公认的规范的技术;(4 )违反普遍接受的国际法和人权原则的技术。来源:Google AI. 2021 AI Principles Progress Update. https://ai.google/static/documents/ai-principles-2021-progress-update.pdf
[1] |
郭玉山, 赵长根. 德国工程师协会.
全球科技经济瞭望, 2001(2): 39.
DOI: 10.3772/j.issn.1009-8623.2001.02.018. |
[2] |
Riis P. Letter from. Denmark. Planning of scientific-ethical committees.
British Medical Journal, 1977, 2(6080): 173.
|
[3] |
Marlowe J, Tolich M. Shifting from research governance to research ethics: A novel paradigm for ethical review in community-based research.
Research Ethics, 2015, 11(4): 178-191.
DOI: 10.1177/1747016115579536. |
[4] |
Burr J, Reynolds P. The wrong paradigm? Social research and the predicates of ethical scrutiny.
Research Ethics, 2010, 6(4): 128-133.
DOI: 10.1177/174701611000600404. |
[5] |
Stevenson F A, Gibson W, Pelletier C, et al. Reconsidering ‘ethics’ and ‘quality’in healthcare research: the case for an iterative ethical paradigm.
BMC medical ethics, 2015, 16(1): 1-9.
DOI: 10.1186/1472-6939-16-1. |
[6] |
Van den Hoonaard W C. The seduction of ethics: Transforming the social sciences. University of Toronto Press, 2011.
|
[7] |
Gontcharov I. Methodological crisis in the social sciences: The New Brunswick Declaration as a new paradigm in research ethics governance?.
Transnational Legal Theory, 2013, 4(1): 146-156.
DOI: 10.5235/20414005.4.1.146. |
[8] |
Shuster E. Fifty years later: the significance of the Nuremberg Code.
New England Journal of Medicine, 1997, 337(20): 1436-1440.
DOI: 10.1056/NEJM199711133372006. |
[9] |
Boddington P. Towards a code of ethics for artificial intelligence. Cham: Springer, 2017: 27.
|
[10] |
Zhou J, Chen F. AI ethics: From principles to practice. AI & SOCIETY, 2022: 1−11.
|
[11] |
Morley J, Floridi L, Kinsey L, et al. From what to how: an initial review of publicly available AI ethics tools, methods and research to translate principles into practices.
Science and engineering ethics, 2020, 26(4): 2141-2168.
DOI: 10.1007/s11948-019-00165-5. |
[12] |
Beauchamp T, Childress J. Principles of biomedical ethics: marking its fortieth anniversary.
The American Journal of Bioethics, 2019, 19(11): 9-12.
DOI: 10.1080/15265161.2019.1665402. |
[13] |
Humphreys P. The philosophical novelty of computer simulation methods.
Synthese, 2009, 169(3): 615-626.
DOI: 10.1007/s11229-008-9435-2. |
[14] |
Durán J M, Jongsma K R. Who is afraid of black box algorithms? On the epistemological and ethical basis of trust in medical AI.
Journal of Medical Ethics, 2021, 47(5): 329-335.
|
[15] |
Holm E A. In defense of the black box.
Science, 2019, 364(6435): 26-27.
DOI: 10.1126/science.aax0162. |
[16] |
Szegedy C, Zaremba W, Sutskever I, et al. Intriguing properties of neural networks.
arXiv preprint arXiv:, 1312, 6199: 2013.
|
[17] |
He K, Zhang X, Ren S, et al. Delving deep into rectifiers: Surpassing human-level performance on imagenet classification//Proceedings of the IEEE international conference on computer vision. 2015: 1026−1034.
|
[18] |
Stock P, Cisse M. Convnets and imagenet beyond accuracy: Understanding mistakes and uncovering biases//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 498−512.
|
[19] |
Geirhos R, Temme C R M, Rauber J, et al. Generalisation in humans and deep neural networks. Advances in neural information processing systems, 2018, 31.
|
[20] |
Nagarajan P, Warnell G, Stone P. Deterministic implementations for reproducibility in deep reinforcement learning.
arXiv preprint arXiv:, 1809, 05676: 2018.
|
[21] |
Russakovsky O, Deng J, Su H, et al. Imagenet large scale visual recognition challenge.
International journal of computer vision, 2015, 115: 211-252.
DOI: 10.1007/s11263-015-0816-y. |
[22] |
Torralba A, Efros A A. Unbiased look at dataset bias//CVPR 2011. IEEE, 2011: 1521-1528.
|
[23] |
Tommasi T, Patricia N, Caputo B, et al. A deeper look at dataset bias. Domain adaptation in computer vision applications, 2017: 37-55.
|
[24] |
Matthias A. The responsibility gap: Ascribing responsibility for the actions of learning automata.
Ethics and information technology, 2004, 6(3): 175-183.
DOI: 10.1007/s10676-004-3422-1. |
[25] |
孟令宇. 从算法偏见到算法歧视: 算法歧视的责任问题探究.
东北大学学报(社会科学版), 2022, 24(1): 1-9.
|
[26] |
Bleher H, Braun M. Reflections on Putting AI Ethics into Practice: How Three AI Ethics Approaches Conceptualize Theory and Practice.
Science and Engineering Ethics, 2023, 29(3): 21.
DOI: 10.1007/s11948-023-00443-3. |
[27] |
McLennan S, Fiske A, Tigard D, et al. Embedded ethics: a proposal for integrating ethics into the development of medical AI.
BMC Medical Ethics, 2022, 23(1): 6.
DOI: 10.1186/s12910-022-00746-3. |
[28] |
Shahriari K, Shahriari M. IEEE standard review—Ethically aligned design: A vision for prioritizing human wellbeing with artificial intelligence and autonomous systems//2017 IEEE Canada International Humanitarian Technology Conference (IHTC). IEEE, 2017: 197−201.
|
[29] |
Russell S. Human compatible: Artificial intelligence and the problem of control. Penguin, 2019.
|
[30] |
OpenAI. OpenAI Charter. https://openai.com/charter/. Published April 9, 2018
|
[31] |
Ziegler D M, Stiennon N, Wu J, et al. Fine-tuning language models from human preferences.
arXiv preprint arXiv:, 1909, 08593: 2019.
|
[32] |
Bai Y, Kadavath S, Kundu S, et al. Constitutional ai: Harmlessness from ai feedback.
arXiv preprint arXiv:, 2212, 08073: 2022.
|
[33] |
Friedman B, Kahn P H, Borning A, et al. Value sensitive design and information systems. Early engagement and new technologies: Opening up the laboratory, 2013: 55−95.
|
[34] |
Van de Poel I. Translating values into design requirements. Philosophy and engineering: Reflections on practice, principles and process, 2013: 253−266.
|
[35] |
Bobbie Johnson, Gideon Lichfield. Hey Google, sorry you lost your ethics council, so we made one for you. 2019. https://www.technologyreview.com/2019/04/06/65905/google-cancels-ateac-ai-ethics-council-what-next/ [2023-2-16]
|
[36] |
Jacobs S, Apperley A. Risk-Aversion or Ethical Responsibility? Towards a New Research Ethics Paradigm. 2018.
|
[37] |
Yassi A, Breilh J, Dharamsi S, et al. The ethics of ethics reviews in global health research: case studies applying a new paradigm.
Journal of Academic Ethics, 2013, 11(2): 83-101.
DOI: 10.1007/s10805-013-9182-y. |
[38] |
Annas J. Intelligent virtue. Oxford: Oxford University Press, 2011: 12−20.
|
[39] |
孟伟, 杨之林. 技艺与德性中的实践智慧——基于亚里士多德伦理学与当代伦理学自然主义的比较.
道德与文明, 2020(1): 64-68.
|
[40] |
刘玮. 亚里士多德论技艺与德性.
哲学动态, 2019(10): 75-84.
|
[41] |
Hacker-Wright J. Skill, practical wisdom, and ethical naturalism.
Ethical Theory and Moral Practice, 2015, 18(5): 983-993.
DOI: 10.1007/s10677-015-9566-8. |
[42] |
Morley J, Elhalal A, Garcia F, et al. Ethics as a service: a pragmatic operationalisation of AI ethics.
Minds and Machines, 2021, 31(2): 239-256.
DOI: 10.1007/s11023-021-09563-w. |