数字技术提供的数据规模及数据的可访问性、及时性为环境治理范式变化创造了条件。一方面,温室气体排放、资源利用、人口密度情况等模型在环境规划与政策制定中的适用变得越来越普遍。算法不仅可以帮助决策者监测、预测环境变化,甚至可以直接设计有效的环境战略。例如,算法决策工具“INFORM”被用来分配气候变化影响下的萨克拉门托河的水质及水量,“RESOLVE”被加利福尼亚的能源公用事业监管机构用来评估能源更新情况[1],国际商业机器公司(IBM)中国研究院绿色地平线团队研发的“大气污染防治量化决策支持平台”支持全国367个城市预报和相关决策[2]。另一方面,环境算法决策正日益渗入“前瞻性警务”、环境影响评价等环境行政场域。河北省生态环境执法App采取“一企一码”,实施宽严相济的“服务式”执法,上海市生态环境局将AI大模型与环境执法业务融合的“慧眼通”利用于执法现场。2019年,澳大利亚独立审查的《环境保护和生物多样性保护法》(EPBC act)探讨了作为程序性机制的环境影响评估等低风险提案的审议和批准是否可以自动化[3]。上述例子已表明:环境算法决策已成为现实。
一般认为,“决策”通常涉及人类的自主意识表达,而这种判断正受到算法决策系统的挑战。在算法社会中,很多时候不透明的算法——而非人——成为决策主体[4],引发了诸如自主决策权、个人隐私保护、算法偏见、算法透明度等一系列法律问题。尽管学界对于算法决策在刑事司法等领域的应用提出了诸多批评与建议,但在环境法领域尤其是气候变化与能源政策之中则有所不同。环境问题的科学不确定性使得算法决策工具十分必要。然而,环境法对算法的过度依赖也带来了一定问题。算法作为指导环境政策与立法制定的工具,实质性地改变了其中的权力关系及其分配结果。这些问题包含算法的固有缺陷,是算法决策的共有问题;算法工具反过来影响着环境法的发展和实施,也有环境法领域内的特殊问题。因此,本文的关注对象是环境法内作为治理工具的算法,而非算法的规则治理。
一、环境算法决策的挑战作为环境治理的技术变量,环境算法重塑了环境治理范式,也必然引发新的挑战。这些挑战既包括技术风险、安全与隐私风险,也包括原有环境法的滞后风险。
1. 算法偏见、算法黑箱与生态环境的不确定性叠加由于算法技术风险与生态环境问题的复杂性、环境危害后果的弥散性叠加,相较于其他领域,环境决策中适用算法的风险呈现更复杂、影响范围更广、造成后果更严重的特征。例如,2019年9月爆发并持续肆虐的澳大利亚森林大火引发了巨大的生态与经济损失,澳方未能及时治理在很大程度上归结于算法模型未能准确捕捉极端天气与进行大火预警。
现有环境监管架构基于自然系统在没有人类干扰的情况下是相对稳定的这一假设。几十年来,科学家们一直认为生态系统绝不是稳定的。相反,由于内部和外部的影响,生态系统随着时间的推移进行着难以置信的变化,表现为动态与不连续的行为[5]。尤其是气候变化的背景下,气候变化不可逆地推动生态系统超过阈值,直接超出了人类的控制。2008年,科学家在Science杂志上指出,自然的平稳性即“自然系统在不变的变化范围内波动”这一概念,由于气候变化的原因,“稳定性已经死了”[6]。不仅生态环境具有不确定性,基于历史经验获取的数据所建立的模型也具有这种不确定性。环境算法偏见与上述不确定性叠加,增加了决策风险:(1)先行存在偏见(Pre-existing Bias)。算法是算法主体的价值选择,“其在设计和开发中可能通过特征选择、损失函数选择、超参数调节等方式夹带着算法开发、设计者的主观价值判断”[7],这种先行偏见既可能是显性的也可能是隐性的。正如现代气候科学的创始人之一斯蒂芬·施耐德(Stephen Schneider)指出,环境模型包含了“价值假设”,并且“模糊自然或社会如何运作的价值观,或者做出隐含的假设”[8]。尤其在生态利益与经济利益衡平的场域,依托有缺陷的先行偏见数据,算法可能会作出破坏生态环境的决策。(2)技术性偏见(Technica Bias)。技术性算法偏见主要是由程序本身、计算能力或者是系统的某些限制造成的[9]。例如,海量环境数据使得信息过载产生的显示错误、算法中数据假阳性和假阴性两类误差难以避免导致的决策失误[10]。(3)突发性偏差(Emergent Bias)。突发性偏见是因之前未能预料的情况所导致的偏见结果,如新的环境信息出现导致原有数据与之不相匹配。环境模型的不确定性使得决策具有延缓效应,增加了认识新环境风险与采取措施控制的难度[11]。依托不确定模型进行的算法决策与生态环境的不确定性叠加,可能诱发无法预见的环境风险。
与此同时,在深度学习和神经网络的应用中,人工智能系统被认为是黑匣子,最初的人类程序员对这些算法在决策中是如何运作的几乎一无所知[12],产生算法黑箱的技术风险。一方面,算法压缩行政环节、架空行政程序,违背了行政正当程序原则,产生了行政权力增强效应[13],这在环境执法领域尤为明显,行政相对人的知情、申辩权利无法得到充分保障。另一方面,算法黑箱使得环境决策结果不可解释,引发决策失控问题。在生态环境这一不可逆、专业性强、影响范围广的领域,算法的不可解释是十分致命的,使得决策者无法轻易基于该技术作出恰当的环境整治战略,产生环境损害扩散与流动的失控后果。
2. 环境算法带来的安全与隐私风险伴随着科技的发展,针对传统城市治理中的交通堵塞、能源供应、温室气体排放、无计划扩张、废物处理等问题,现代城市逐渐依托物联网、云计算、区块链等数字技术,构建了“智慧城市”(smart city)。“智慧城市”最明显的特征就是对数据的依赖。日常的城市生活中充满了数字足迹,通过许多不同的联网数据收集点(如车牌识别、智能手机碳足迹跟踪、电网系统中的传感器、饮用水管道设置信息采集点[14]),可以分析某些行为产生的后果(如温室气体排放、交通情况、能源耗用、资源供应)。例如,欧盟为履行《巴黎协定》和欧洲绿色倡议规定的减排义务启动了“CoCO2”项目,该项目对工业、城市排放的二氧化碳和甲烷进行持续监测,甚至可以查看某个具体发电厂或城市的排放流量。再如,深雷(Deep Thunder)团队与都柏林IBM合作开发了一个可再生能源的操作决策系统,以解决将可再生能源集成的电网问题。该系统能够精确预测单个风力涡轮机和小型太阳能发电场的能源需求和功率[15]。传感器和物联网应用等技术被应用于收集信息,并将其聚合成可以自动决策的算法模型,这在以下阶段产生潜在风险:(1)数据收集阶段。“微粒社会”下,个人的概念从抽象变得具体,复杂的监测技术实现了“彻底的透明”。无论是在自家后院还是在城市角落,个人已经可以被精准识别与定位。信息的过度收集已成为一大问题,隐含着侵犯个人隐私的风险,如保险公司使用电力数据来判断人的健康,改变相应的保费[16]。(2)数据储存阶段。环境信息成为决策系统的组成部分,而这种建构甚至是以“默认”的方式产生,苹果的定位丑闻“location gate”已清楚地揭示了这一点。“默认”提供的环境信息使得地理监视成为可能,如果没有设定合适的保密措施,一旦遭到泄露就会产生暴露个人隐私乃至国家秘密的安全问题。(3)决策阶段。数据固有的偏见与算法决策透明度可能会导致城市中特色街区的丧失、生态景观的消失[17]。
由于政府自身技术能力有限,“智慧城市”通常需外包给专业机构来实现其中的技术项目,形成了四种政府和社会资本合作模式(Public-Private-Partnership)模式:政府投资、企业参与模式;政府与企业合资模式;政府规划、企业投资模式;企业投资、政府购买服务模式。政府部门的数据、权力和私营公司的技术力量结合,集中体现了“公共权力私有化”这一趋势[13],引发了安全与隐私的风险:谁将拥有智慧城市的数据?通常而言,实时监控、规划城市、应急响应是政府的职能,市民希望涉及自己隐私的数据由政府掌握,然而在ppp建设的城市中,这些数据至少部分处于私人控制之下,甚至被用于共同制定、引导城市政策,如阿里巴巴集团为杭州市政府提供“城市大脑”算法服务,在城市内、水源地布置温湿度、空气质量、噪音传感器,实时监测空气中的PM2.5、PM10等环境数据,政府向企业至少让渡了部分算法权力。“智慧城市”ppp模式作为新事物,在法律与实践层面均存在“灰色地带”。虽然我国制定了《个人信息保护法》,但有关政府数据开发利用的法律仍是空白,实践中仍采取单一授权方式,大多数平台没有制定授权协议[18]。同时,这种无穷的后患将超越现有制度的想象,国外已有开发智慧城市技术的公司提议后期要用广告经营来弥补建设投入[19],此类情况下,企业获取了公共权力,数据所有权的“私有化”成为安全与隐私的严重威胁。
3. 危机应对型环境法的滞后性算法正在创造一个更加精确具体的世界,即时的动态感应要求环境政策与立法需要建立在定量而非定性基础之上。灵活的数字技术将处理数量级的复杂环境问题,而旧有的环境治理框架并未系统地融入算法决策模式。
第一,近代环境法是危机应对型立法和监管的产物。自上世纪50年代形成以核能与石油为核心能源的第三次工业革命以来,人类从对自然与社会的干预程度及范围大大扩张,风险结构由自然风险转向人为风险,伦敦烟雾事件、洛杉矶光化学烟雾事件、日本四大公害事件中数百万人受到健康威胁。1972年,联合国人类环境会议的召开和《斯德哥尔摩宣言》为标志,“环境保护”的概念正式提出[20],环境法部门应运而生。危机应对型环境法注重对已暴露的环境风险作出被动反应,我国针对固体废物出台《固体废物污染环境防治法》、大气污染出台《大气污染防治法》;意识到湿地保护的重要性,出台《湿地保护法》,意识到长江、黄河条块分割管理的脱节,出台《长江保护法》《黄河保护法》,以“危机应对”与“顾后”为特征。同时,环境问题的复杂性使得环境法无力进行“前瞻”。作为复杂系统的生态环境,当法律制定者还在制定规则时,环境就以指数形式异变,而新的环境风险仍在不断诞生。现行规则建立防治环境污染与管理自然资源的基础之上,尚未注意到算法决策应用的风险,存在着法律空白与适用障碍之困境。
第二,环境法“命令—控制”(command and control)的整体法律面向并未改变。“命令—控制”是指通过规则与罚则实现立法目的与政策目标,即“不法惩罚主义”。尽管有学者提出,“命令—控制”为核心的第一代环境规制、以经济激励为核心的第二代环境规制已演化至“企业自觉结构”的第三代环境规制[21]。但事实上,规则与罚则仍是环境成文法的中流砥柱,不因时代变化而被废弃,其与环保协议、环境披露、环境激励等制度并存。“命令—控制”的环境规制注重事后的末端治理,对前瞻性的环境风险预测、预防的算法决策关注度不足。而环境行政中的算法决策因需体现公平与正义,产生了监管刚性,强调环境罚则的统一适用,不太顾及行业标准或环境企业类别的特殊性。
二、环境算法决策规制的正当性环境算法决策带来的挑战成为未来环境治理的制约因素,就目前而言,个体赋权范式构建的算法权利无法应对环境算法决策的种种风险。正是由于环境算法决策与传统环境法律规制工具互依共存、环境算法的工具理性需要环境法的价值理性调节,以环境法规制环境算法决策具备法理上的正当性。
1. 个体赋权范式构建的算法权利在环境领域内失效欧盟《通用数据保护条例》(General Data Protection Regulation,GDPR)以赋权方式强化了个体对自动化决策的控制权与影响力[22]。我国《个人信息保护法》镜鉴了GDPR,于第24条、第55条和第73条作出有关算法决策的规定,构建了以个体赋权为核心的算法治理范式。《个人信息保护法》第33条规定“国家机关处理个人信息的活动,适用本法”,说明我国在个人信息保护问题上适用的是国家机关与其他信息处理者同等对待,采取同一法律框架的“一体调整”模式[23]。然而,个体赋权范式构建的算法权利对环境公共决策中的算法没有实质影响。
第一,知情同意。《个人信息保护法》第24条明确了利用个人信息自动化决策的知情同意规则。然而扩展到环境算法决策领域,该条款失去了应用效能。首先,《个人信息保护法》在第13条列举了“为履行法定职责或者法定义务所必需”“为公共利益实施新闻报道、舆论监督”等知情同意的豁免情况。基于上述豁免,告知同意不再能对公权机关的数据收集和处理行为发挥核心调控作用,无法有效规制公共机构的算法决策[24]。再次,环境利益属于“公共利益”,一般认为,为追求公共利益目标而采取的措施,对个体权利作出限制是必要的,环境公共利益的模糊性与重要性掩盖了背后环境决策是否适当之考量。
第二,算法解释权。GDPR序言第71条指出,当数据主体对自动化决策有异议时,有权获得人工干预、表达意见、获取决策如何做出的解释和对决策提出质疑的权利。由此,我国学者建议立法中引入该条款。首先,算法解释权仅基于个人数据作出,使得作为公共决策的大部分环境算法决策被排除在标准之外。如若个人对环境算法决策有争议的,无法适用该规范。其次,环境算法决策作出的预测是对生态环境、自然资源的不可逆整治、修复、分配,事后个体免受自动化决策的约束无法对事前的环境决策与预警产生约束,事后阶段的控制基本不会对原有决策产生消极影响。再次,复杂环境系统中透明度往往代表细节而非清晰度。许多环境模型描述了模型的结构、数据、工作方式,而一般公众的知识不足以理解环境模型,算法解释权的有效性不足。
第三,算法影响评估。欧洲议会提出的“算法影响评估”旨在允许社区和利益相关者对公民权利造成影响的算法自动化决策进行评估,该制度已在GDPR中得到落实。GDPR第35条要求算法控制者进行“数据保护影响评估”,适用于企业以及政府部门。我国《数据安全法》第22条构建了“数据安全风险评估、报告、信息共享、监测预警机制”,《工业和信息化领域数据安全风险评估实施细则(试行)》中指出该类评估需由“第三方评估机构”开展,其本质是为了维护数据的安全,缺乏公众参与程序的具体规定,公众无法评估程序的公平性。
2. 环境算法决策与传统环境法律规制工具互依共存一方面,环境法内的目标导向类、直接管控类、激励诱导类、事后应对类制度应对不同环境风险组合适用,作为治理工具的算法依赖传统规制工具得以实现。例如,总量控制的算法决策与事前的排污许可、环境影响评价,事后的环境执法、环境司法,还与环境税费、环境补贴等激励制度相互关联。环境算法决策与传统环境规制工具通过程序以及实体上的协调,共同影响着决策的产生、施行、功效,共同促进生态环境保护目的之实现。另一方面,环境算法决策提升了环境工具效能。数字技术帮助监管机构通过数据分析技术和人工智能算法模拟、预测环境变化趋势,从而基于数据制定更科学、精确的环境政策;数字技术在社会空间内的迅速发展打破了政府权力这一单一中心的环境治理机制,推动着环境治理机制朝着透明化、扁平化的网状方向发展。
环境算法决策的应用并非意味着完全否定传统环境法律规制工具,也并非要排除人工判断与决策。传统环境法律规制工具仍然有其广泛应用的范围,但需要使用算法提升工具效能,发挥环境工具的组合效应。当然,环境算法决策不能取代人工作出经济利益与环境利益孰优孰劣之价值判断,它离不开人类监督与算法评估。因此,环境法对算法决策作出的一系列政策与法律的约束必然包含着对环境风险与技术风险控制的有效性标准,保证该标准下算法的自由裁量处于法律所允许的范围之内。
3. 环境算法的工具理性需要环境法的价值理性调节一方面,环境算法技术价值的放大效应冲击着环境法的价值理性。随着算法决策的智能化、高效化特征不断彰显,算法的作用迅速放大,不断挑战着现有的环境法律规范系统。例如,“环保码”的引入使得企业环保行为被算法工具实时监测,当企业环保表现不达标时,算法将自动对其进行警告、赋红码等,算法决策具备了自主判断、自主惩戒的能力,架空了原本的环境行政程序,不仅对环境规制主体的权力构成冲击,而且行政相对人的知情、申辩权利也无法得到充分保障。算法已经具备工具理性、科技理性的条件与特点,带来了诸多风险与挑战。正如尤瓦尔·诺瓦·赫拉利(Yuval Noah Harari)指出:技术不仅仅是单纯的技术问题,还将会对社会经济政治产生深远影响。“危机是新理论出现所必需的前提条件”[25],这些风险使得法律对算法进行规制势在必行。法律经历着从实质理性到形式理性的过程,形式理性会提供法律秩序的稳定和可预期[26]。稳定的法律秩序附加了法律可知性、可预测性、透明度、正当程序的价值,以及个体在司法机构面前获得公平审判的权利,这些“真善美”的价值理性为工具理性持续地提供精神动力。
另一方面,环境算法的技术价值对环境法具有反向塑造功能。环境法对环境算法决策工具的依赖造就了工具对法律的反向重塑效应,但法律不只是发挥工具意义,否则法律内嵌的价值维度就会丧失。[27]应用算法工具的环境法不是简单的“工具理性+价值理性”,而是体现在环境法对工具的约束与工具反向延伸环境法律功能的效应上。例如,环境算法决策提高了资源分配效率,提升了政策的客观性与公平性,增加了人们对基于数据进行精细化资源配置的期待。每个法律部门都有其自身独特的调整对象与功能,环境法作为典型的“领域法”,以问题为导向,高度张扬对社会问题的回应性[28]。正如知情同意、算法解释权等规则都是为防止个体权利受到侵害,而非仅仅是算法的技术性约束,以环境法规制环境算法决策工具的最终目的是为了保护生态环境这一元目标。因此,环境法规制环境算法决策的正当性来源——作为领域法的环境法对自身的反思性构建,展现技术之于社会的积极调整。
三、环境算法决策的规制路径通过对环境法律框架的适应调整并划定适用边界、明确程序保障,辅以评价基准,确立环境算法决策规制的总体框架,以便更有效地应对风险与挑战,实现环境治理范式的跃升。
1. 适应调整:反映技术与风险的变化一方面,环境法应反映技术变化。从法治的角度来看,真正重要的不是技术属性,而是技术所引发社会关系变化的后果。具体而言:(1)增设定期风险评估和修订条款。适应模式基于数据不断调整并且不断纳入新数据进行再调整决策,以此平衡风险与收益。这需要在现有法治框架内增设定期风险评估和修订条款,确保环境政策的灵活性。增设定期风险评估和修订条款有两种路径:第一,在立法中设定抽象的原则性条款,通过法律解释进行完善,具体期限、修订方法交由政策自行决定。在生态环境法典编纂的背景下,该路径具备一定合理性,然而目前学界缺乏对适应模式下环境立法的研究深度,盲目加入灵活适应的原则性条款可能导致整个环境法体系的脱节。第二,出台环境算法决策的指导性规范,其中设定定期风险评估和修订条款,并将该条款作为指导性规范传递于其他地方性政策之中。相较于第一种方式,此类方式更具合理性。我国现有立法本身就缺乏对环境算法的关注度,在环境信息收集、处理、共享等方面均存在缺位现象。较之于立法,灵活的政策能够节约立法成本。精准的政策表达代表了一种降低不确定性的方式:任何利用算法决策的环境公共政策都必须根据现实环境的不断变化审查现有框架。(2)引入环境算法决策的信息披露制度。算法透明经常被视为解决算法黑箱问题最直接、有效的方式,通过对算法信息披露可以缓解公众与算法操控者之间的信息不均衡[29]。由于算法的复杂性,环境算法决策是一个不断调整、试错的过程,与立法框架所要求的明确性并不匹配。技术标准作为法律规范与技术实践的耦合,是规制与自治之间的衔接点[30]。金融法领域内的《人工智能算法金融应用评价规范》从安全评价、可解释评价设定了信息披露标准,透明成为决策自动化的原则要求。环境法可以参照该形式,在环境技术标准中按照风险分级设定差异化的披露标准,精准披露自动化决策的结构、种类、规则,缓冲稳定性与适应性之间的张力。
另一方面,环境法应适应风险变化。随着环境算法决策的普遍适用,环境风险与技术风险叠加呈现非线性与不确定性。此时,法律应随之作出调整:(1)算法的规则治理。环境算法作为算法的一种,必然依赖算法治理规则进行调整。所有模型都可能产生错误引发的风险,为此,相关机构需要密切关注模型风险,使算法监管法规更具应对风险的韧性,包括提高数据标准、质量,持续不断地监测。(2)环境法内作为治理工具的算法。在风险预防的场域,环境算法决策针对非线性环境风险作出的决策引发了权力深度介入权利的隐私与安全问题,需要环境法保持开放性,与公众形成双向反馈机制。任何环境算法决策必须经由比例原则衡量,只有当限制权利带来的好处应超过行使权利带来的坏处才能限制权利。具体而言,可将比例原则的三个子原则嵌入环境算法决策进行衡量:第一,适当性原则需考量环境算法决策手段与的目的间的因果关系。通常而言,该原则较为宽松,偏向对公共利益的维护,即为维护生态环境而采取的环境算法手段一般均符合适当性原则。决策准备阶段、数据运算阶段、系统决策阶段中的任何数据收集、处理、分析活动均需符合保护生态环境这一元目标才能通过适当性原则的考量。第二,必要性原则需坚持环境算法决策最小必要原则。“必要性原则要求在所有相同有效实现目标的手段中必须选取最温和、对权利损害最小的手段。”[31]换言之,如若环境算法决策可以被其他手段所替代,且替代手段对公民的权利损害更小,则不符合必要性原则。例如,算法黑箱中针对环境数据公开问题,部分环境数据涉及商业秘密、国家安全,则不宜全部公开以实现算法透明。第三,均衡性原则需实现环境算法决策目的与手段之间的均衡。以“环保码”为例,企业申请环保码等“秒批秒办”行政许可时应用算法决策能够提升行政效率,而基于环保码予以行政处罚的场景则因涉及具体的相对人利益,应由人类主导,确保公民个人基本权益不被过度侵害。
2. 适用边界:算法影响评价与环境影响评价协同2018年美国颁布并于2022年更新的《算法问责法案》、2019年加拿大颁布的《自动化决策指令》旨在构建标准化的算法影响评价体系,其目标正在于化解算法适用于公共决策的治理难题。算法影响评价作为事先预防手段,实质上以提高算法透明度,实现算法权力规制为核心目标。一方面,算法影响评价通过系统化的技术评估来“引导算法主体识别、控制、解决算法可能存在的社会风险”[32],使得算法系统是稳定可控的。如《算法问责法案》在SET4(a)(4)对决策系统的实体条件提出包括磋商、隐私风险、持续测试、消费者权利等要求的影响评价。另一方面,算法影响评价以“法律保留”形式划定算法决策的适用边界。《自动化决策指令》附件B将算法分为几乎没有影响、适度影响、很大影响、重大影响四个等级,并在附件C为不同影响等级的算法采取差异化的评价手段[33]。如果某项环境算法涉及个体的基本权利,那么是否允许使用就不属于行政机关自行决定范围。
由于环境算法决策的影响范围广泛,个体权利不足以作为算法决策的适用边界,必须与环境影响评价制度相结合,采取算法影响评价与环境影响评价协同的双轨制。《自动化决策指令》附件B中算法影响评价的根据之一就是生态系统的可持续性,在事实上包含了环境影响评价。为全面划定算法的适用边界,对环境风险与技术风险进行全面识别、预防,可以参照《自动化决策指令》纳入环境影响评价作为算法等级分类标准。具体而言,可以考虑以下因素:①决策对环境的影响程度高低;②决策对环境的影响是否可逆;③决策影响人群广泛与否;④决策失误对影响人群的影响高低;⑤预防或减轻不良环境影响的对策与措施可行性。综合考量上述因素,对几乎没有影响、适度影响的环境算法进行备案,提交算法影响登记表;对很大影响的环境算法进行影响评估,提交算法影响报告表;对重大影响的环境算法进行影响评估,提交算法影响报告书;对环境产生不可逆转和永久的影响的决策能否被允许属于立法决议,行政部门不能自行决定。
3. 程序保障:风险分级的差异化公众参与程度环境污染、能源利用、气候变化等领域的算法决策仅遵循数据的输入、输出,不足以发掘决策对上述进程在何种程度上造成了隐藏的不公平影响。因此,需要落实程序性保障措施尽可能地使各方主体充分表达利益诉求、监督决策进程,这不仅对于决策本身是重要的,还可以消解技术风险与环境风险叠加造成的不稳定因素。但是,受环境公共决策影响的利益相关者众多,有意义的公众参与往往需要有技术能力的中间人进行翻译,时间成本、金钱成本代价高昂,基于成本效益考量,“全面的”的公众参与并不现实。并且,广泛的包容可能适得其反,加剧权力差异和不信任,因此应谨慎和严谨地进行[34]。
2021年,我国互联网信息办公室印发的《关于加强互联网信息服务算法综合治理的指导意见》中概括性地提出推进算法分级分类安全管理,精细化的分级分类标准尚未出台。欧盟人工智能的风险等级分类与加拿大《自动化决策指令》对自动化决策的分级保护值得借鉴。(1)根据算法决策风险程度,分为高、中、低三个等级。“高风险”指可能对公民的健康、安全或基本权利的风险;“中风险”“低风险”指对公众影响并不显著的技术风险、环境风险。(2)根据事项的特征偏向,区分决策偏向于技术性特征还是偏向于公共事务特征[35]。技术型特征强、社会化程度低的决策,对公众参与的程度要求相对较低,小范围引入公众参与,如环境污染控制标准;公共事务特征强、社会化程度高的决策,公众参与的程序要求相对较高,如城市绿地规划。对于前者而言,政府可以更大程度地掌握决策过程。由于风险预防并非是一个纯粹的法律概念,其容易在现实中成为利益博弈工具,不同利益集团、科学家利用不同的分析工具会对风险产生层级化的区分。事实上,风险并非以全有或者全无的形式出现,故而以法律实效来说与其说是预防风险不如说是在临界值内控制风险以期获得更大的收益。对于后者而言,决策影响的范围广,需要考虑公众对决策认同度与接受度,需要更多地引入公众参与,寻求共同的利益平衡点。
综上,基于算法决策风险等级与特征偏向,形成由低至高的lv1-lv6公众参与程度等级:lv1低风险、技术性特征强的决策;lv2低风险、公共事务特征强的决策;lv3中风险、技术性特征强的决策;lv4中风险、公共事务特征强的决策;lv5高风险、技术性特征强的决策;lv6高风险、公共事务特征强的决策。实践中,环保部门应进一步精细化算法分级制度,以决策风险与偏向特征为导向依次确定公众参与算法的程度。当然,任何环境算法决策都应包含监督保障措施,当公民自身合法权益受到侵害时,保证其能获得救济。一方面,根据lv1-lv6公众参与程度等级,将公众参与嵌入环境算法决策的各环节。在公众参与程序中公开的方案,绝不能仅以最终结果方式呈现,还应包含环境算法决策的比例原则衡量说明、算法分级分类的基准、环境数据的含义等实质性内容。对涉及范围广、利益相关者众多的环境算法决策还应当召开听证会。当程序上出现瑕疵时,保证公民能通过投诉、举报、诉讼方式参与决策。另一方面,需健全环境算法救济补偿机制。由于算法自身的风险,环境治理主体无法完全预测潜在风险,当出现公民个体与公共利益失衡的结果时,应进行救济补偿。可参照生态补偿机制的形式与标准,对因环境算法决策失误而遭受公民进行资金、技术、实物上的补偿与政策上的优惠,使环境算法决策的目的与手段之间相对均衡。同时,对于环境算法决策造成的实质不平等,公民还可申请环境公益诉讼的适格主体检察机关、环保组织介入。
4. 评价基准:环境算法决策的“红灯”规则与“黄灯”标准丹尼尔·希特伦(Danielle Citron)教授认为,最适宜运用标准(standards)而非规则(rules)予以处理的行政决定不能使用自动化决策;明确或者默示要求运用人类裁量的政策(policies)也不宜通过自动化决策来实施[36]。由于近十年来算法自动化决策系统的更新迭代,决策范围也与之相应扩大,不过该观点仍有启发意义。规则与标准的区分上,就“车辆通过无人看管的铁路道口”为例,规则论认为“司机在经过无人看管的铁路道口时,必须停车并张望”,标准论认为“司机在经过无人看管的铁道路口时,必须尽合理的注意义务谨慎驾驶”[37]。前者为“红灯”规则,即只需观察规则构成中的事实要件即可得出结论,后者为“黄灯”标准,即需要结合事实因素进行判断。由此,笔者提出“人在回路”(human in the loop)的“红灯”规则,以及结合“情报”“设计”“选择”和“评审”四阶段具体判断的“黄灯”标准,作为环境算法决策有效的条件。
“人在回路”的“红灯”规则要求任何阶段、任何形式的环境算法决策需贯彻人类监督,离开人类监督的算法决策无效。算法决策不是绝对正确的、算法决策无法衡平利益,基于这种考量,GDPR第22条禁止仅以自动化方式作出对个人权益产生影响的决定。举轻以明重,对大多数人乃至全人类都会产生影响的环境决策当然需要人类监督以确保决策最终符合人类价值。“人在回路”具有人工干预的优势,人类可以识别自动化系统的错误行为并采取纠正[38]。人工可以删除存在偏见、漏洞或过时的环境数据,在算法遇见未曾处理的情况时人类可以补充作出决策,确保算法是可控的。同时,“人在回路”是问责制的基础。对算法进行惩罚是不现实的,“人在回路”引入了具体的人作为负责主体。
“红灯”规则必须是实质性的,以确保真正的人类价值观得到应用,必要时实行算法控制,否则这种安排可能会沦为橡皮图章式的准自动决定,而人类并没有有意义地参与其中[39]。因此,需引入“黄灯”标准,判断人类参与的有效性。管理决策理论的主要创始人赫伯特·A.西蒙(Herbert A. Simon)认为一个完整的决策分为“情报”“设计”“选择”和“评审”四个阶段,“黄灯”标准需结合上述四个阶段进行判断:(1)情报阶段。情报收集阶段需收集全面的数据,以及调查数据的真实性,如GDPR确立了数据收集最小化原则、数据使用目的限制原则、禁止数据二次使用原则,人类需对收集的数据进行是否符合的再判断,剔除不相关以及多余数据。(2)设计阶段。设计阶段注重算法优化与模型检视,需引入多视角的评估合作机制,如美国《算法问责法案》采取自我评估和政府评估,加拿大的《自动化决策指令》与我国《工业和信息化领域数据安全风险评估实施细则(试行)》中的第三方评估机制。(3)选择阶段。选择阶段是对算法决策提出方案进行的人类价值判断,侧重于经验策略。因此,可逐步构建人工智能领域的专家系统(ES,Expert System),对半结构化和非结构化的数据给出定性的分析和结论[40]。(4)评审阶段。评审阶段需引入公众参与程序,吸收利益相关者与一般公众的意见与建议,考虑是否进行了有意义的人类监督(Meaningful Human Control)。
经由“红灯”规则的形式判断与“黄灯”标准的实质判断,环境算法可以作出有效决策。
四、结 语危机应对型环境法的滞后性造成目前并无恰当规则可以援引,环境算法决策处于风险放任与累积阶段。随着环境算法决策日益在环境污染、能源利用、气候变化领域的适用,本文提出了适应性的环境法律框架以解决算法决策整合到环境治理中的挑战:(1)环境法应反映技术变化、适应风险变化,缓冲稳定性与适应性之间的张力,(2)设定算法影响评价与环境影响评价协同的适用边界,形成由低至高的lv1-lv6公众参与程度等级作为程序保障,使得算法系统是法律框架内是稳定可控的,(3)提出“人在回路”的“红灯”规则,以及结合“情报”“设计”“选择”和“评审”四阶段判断的“黄灯”标准,作为评价环境算法决策的基准,保障人类在环境算法决策中的实质参与。
[1] |
Ziaja S. How algorithm-assisted decision making is influencing environmental law and climate adaptation.
Ecology Law Quarterly, 2021, 48(3): 899-936.
|
[2] |
云南省生态环境厅. 高精度预测空气质量 超短期预测可再生能源利用 认知计算为节能减排培养“超级专家”. https://sthjt.yn.gov.cn/hjxx/201602/t20160226_103946.html
2024-04-21 |
[3] |
Independent review of the EPBC ACT(final report)October 2020. Australian Government Department of Climate Change, Energy, the Environment and Water Climate change Energy Environment. https://epbcactreview.environment.gov.au/resources/final-report.[2024-04-15].
|
[4] |
丁晓东. 论算法的法律规制.
中国社会科学, 2020(12): 138-159.
|
[5] |
Craig R K, Ruhl J B. Designing administrative law for adaptive management.
Vanderbilt Law Review, 2014, 67(1): 1-87.
|
[6] |
Milly P C D, Betancourt J, Falkenmark M, et al. Stationarity is dead: Whither water management?.
Science, 2008, 319(5863): 573-574.
DOI: 10.1126/science.1151915. |
[7] |
胡小伟. 人工智能时代算法风险的法律规制论纲.
湖北大学学报(哲学社会科学版), 2021, 48(2): 120-131.
|
[8] |
Schneider S H. Integrated assessment modeling of global climate change: Transparent rational tool for policy making or opaque screen hiding value‐laden assumptions?.
Environmental Modeling & Assessment, 1997, 2(4): 229-249.
|
[9] |
刘友华. 算法偏见及其规制路径研究.
法学杂志, 2019, 40(6): 55-66.
|
[10] |
汝绪华. 算法政治: 风险、发生逻辑与治理.
厦门大学学报(哲学社会科学版), 2018(6): 27-38.
|
[11] |
王芳. 不确定性与脱嵌: 环境风险生成中的科技失灵.
华东理工大学学报(社会科学版), 2016, 31(4): 1-8.
|
[12] |
Hosanagar K, Jair V. We need transparency in algorithms, but too much can backfire. Harvard Business Review. https://hbr.org/2018/07/we-need-transparency-in-algorithms-but-too-much-can-backfire.[2024-04-21].
|
[13] |
张凌寒. 算法自动化决策与行政正当程序制度的冲突与调和.
东方法学, 2020,(6): 4-17.
DOI: 10.3969/j.issn.1007-1466.2020.06.001. |
[14] |
李传军. 大数据技术与智慧城市建设——基于技术与管理的双重视角.
天津行政学院学报, 2015, 17(4): 39-45.
|
[15] |
United States IBM. Deep Thunder. https://www.ibm.com/history/deep-thunder. [2024-04-21].
|
[16] |
Breggin L K, Amsalem J. Big Data and the Environment: A Survey of Initiatives and Observations Moving Forward.
The Environmental law reporter: news& analysis, 2014, 44(11): 10984-10995.
|
[17] |
鲍海君, 曹伟, 叶扬, 等. 数据驱动的国土空间规划: 理论、范式及趋势.
中国土地科学, 2024, 38(1): 53-63.
|
[18] |
王伟玲. 政府数据授权运营: 实践动态、价值网络与推进路径.
电子政务, 2022,(10): 20-32.
|
[19] |
徐偲骕, 洪婧茹. 谨慎对待城市“公私合营”与公共数据私人控制——评《数字化世界的智慧城市》.
国际新闻界, 2020, 42(10): 159-176.
|
[20] |
吕忠梅. 生态环境法典中的“环境污染”概念辨析.
政法论丛, 2024(2): 13-27.
DOI: 10.3969/j.issn.1002-6274.2024.02.002. |
[21] |
谭冰霖. 论第三代环境规制.
现代法学, 2018, 40(1): 118-131.
DOI: 10.3969/j.issn.1001-2397.2018.01.09. |
[22] |
张欣. 算法解释权与算法治理路径研究.
中外法学, 2019, 31(6): 1425-1445.
DOI: 10.3969/j.issn.1002-4875.2019.06.003. |
[23] |
王锡锌. 行政机关处理个人信息活动的合法性分析框架.
比较法研究, 2022,(3): 92-108.
|
[24] |
赵宏. 公共决策适用算法技术的规范分析与实体边界.
比较法研究, 2023,(2): 1-16.
|
[25] |
库恩. 科学革命的结构. 李宝恒, 纪树立译. 上海: 上海科学技术出版社, 1980: 35.
|
[26] |
胡静. 环境权的规范效力: 可诉性和具体化.
中国法学, 2017,(5): 152-172.
|
[27] |
郑玉双. 计算正义: 算法与法律之关系的法理建构.
政治与法律, 2021(11): 91-104.
|
[28] |
刘剑文. 论领域法学: 一种立足新兴交叉领域的法学研究范式.
政法论丛, 2016(5): 3-16.
DOI: 10.3969/j.issn.1002-6274.2016.05.001. |
[29] |
衣俊霖. 数字孪生时代的法律与问责——通过技术标准透视算法黑箱.
东方法学, 2021(4): 77-92.
DOI: 10.3969/j.issn.1007-1466.2021.04.007. |
[30] |
柳经纬. 标准的类型划分及其私法效力.
现代法学, 2020, 42(2): 157-170.
DOI: 10.3969/j.issn.1001-2397.2020.02.12. |
[31] |
蒋红珍. 比例原则适用的范式转型.
中国社会科学, 2021,(4): 106-127.
|
[32] |
李安. 算法影响评价: 算法规制的制度创新.
情报杂志, 2021, 40(3): 146-152.
DOI: 10.3969/j.issn.1002-1965.2021.03.025. |
[33] |
Government of Cananda. Directive on Automated Decision-Making. https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592§ion=html. [2024-04-21].
|
[34] |
Skinner-Thompson J. Procedural Environmental Justice.
Washington Law Review, 2022, 97(2): 399-458.
|
[35] |
袁莹. 增强公众参与公共决策的程序保障.
领导科学, 2012,(28): 12-13.
|
[36] |
Citron D K. Technological due process.
Washington Law Review, 2007, 85(6): 1249-1313.
|
[37] |
陈林林. 基于法律原则的裁判.
法学研究, 2006,(3): 3-15.
|
[38] |
陈悦. 论自动化行政中算法决策风险的“人在回路”治理模式.
行政法学研究, 2024(4): 35-46.
|
[39] |
Wagner B. Liable, but not in control? Ensuring meaningful human agency in automated decision‐making systems.
Policy & Internet, 2019, 11(1): 104-122.
|
[40] |
马桑, 张苑漫. 大数据视域下公共决策模式之转变: 经验、数据与统合.
江汉学术, 2021, 40(2): 35-42.
|