中国海洋大学学报社会科学版  2020  Issue (3): 105-114  DOI: 10.16497/j.cnki.1672-335X.202003011

引用本文  

管建强, 郑一. 国际法视角下自主武器的规制问题[J]. 中国海洋大学学报(社会科学版), 2020, (3): 105-114.
Guan Jianqiang, Zheng Yi. Regulation of autonomous weapons from the perspective of international law[J]. Journal of Ocean University of China (Social Sciences), 2020, (3): 105-114.

作者简介

管建强(1958-),男,上海人,华东政法大学国际法学院教授,博士生导师,法学博士,华东政法大学军事法研究中心主任,主要从事国际法、军事法研究

文章历史

收稿日期:2020-04-02
国际法视角下自主武器的规制问题
管建强 , 郑一     
华东政法大学 国际法学院,上海 201620
摘要:随着人工智能技术的不断进步,在武器上加持人工智能技术的可能性极大提高。传统武器具备自主智能特性, 具有明显的双刃剑特点:一方面,自主武器独特的自主特性给世界部分国家带来了强大的军事驱动力;另一方面,自主武器在未来的适用中存在违反国际人道法的可能性,给全人类的安全和尊严带来了挑战。持续构建“人类命运共同体”是当今中国全球治理的方针政策,在此背景下应当依据国际法原理规制一套符合现代国际法律要求的禁止使用或有条件适用于武装冲突的条件。中国对于自主武器的禁止和适用条件应有自己的话语权。
关键词自主武器    国际人道法    自卫权    联合国特定常规武器公约        
Regulation of autonomous weapons from the perspective of international law
Guan Jianqiang , Zheng Yi     
The International Law School, East China University of Political Science and Law, Shanghai 201620, China
Abstract: With the continuous advancement of artificial intelligence technology, the possibility of adding artificial intelligence technology to weapons is greatly enhanced. Traditional weapons that have autonomous characteristics are double-edged swords. On the one hand, the unique autonomy of autonomous weapons has brought a powerful military driving force to some countries in the world. On the other hand, as for the potential use in the prospect, autonomous weapons may violate international humanitarian law, and even challenge human security and dignity. China now advocates a long-term community of shared future for humankind as its global governance policy. In this context, a set of conditions prohibiting the use or conditional application of armed conflicts in accordance with the requirements of modern international law should be regulated in accordance with the principles of international law. China should have its own right to speak about the prohibition and application of autonomous weapons.
Key words: autonomous weapons    international humanitarian law    Martens clause    right of self-defence    Convention on Certain Conventional Weapons    

据全球领先的科技媒体《连线》报道,人工智能将在未来战争中极大提高美军的战斗力。另外,2015年俄军制定了人工智能武器的研发计划并通过军事工业委员会的审查。[1]不同于美俄这样的军事大国,国际上一些中小发展中国家,由于其缺乏自主武器的研发能力,例如,塞拉利昂、埃及等非洲国家认为:“使用自主武器系统应当进行必要规制,各国必须遵循国际人道法的基本原则。”联合国特定常规武器公约(Convention On Conventional Weapons,以下简称为CCW)缔约国早在2014年就召开了有关致命性自主武器的第一次非正式专家会议,从2017年开始,CCW公约缔约国每年都例行召开政府间专家会议,重点讨论了自主武器的使用和规制等多方面问题。然而各方争议不断,对于自主武器的规制更是难以达成共识,为此,就自主武器的规制问题,笔者不揣浅陋,作以下探索性的阐述。

① 红十字国际委员会.为什么自主武器系统在非洲很重要[EB].https://www.icrc.org/zh/document/autonomous-weapons-africa-160411, 2016-04-11/2020-03-20.

Background on Lethal Autonomous Weapons Systems in the CCW, see:https://www.unog.ch/80256EE600585943/(httpPages)/8FA3C2562A60FF81C1257CE600393DF6?OpenDocument.

一、自主武器的概述 (一) 自主武器的定义

武器一般被认为是“致身体损伤或死亡的工具”或是“在斗争冲突中赢得优势或者保卫自身的手段”。传统武器,例如“冷兵器时代”的大刀长矛、“热兵器时代”的枪炮导弹都能给人和其他物体造成损害,并且结合“战为胜”的角度来看似乎武器仅存在攻击属性。不过,《后汉书·仲长统传》主张:“简精悍以习师田,修武器以存守战。”从历史上考究武器的使用属性至少应当包含防御性,从这点可以看出,武器在战场上能够造成伤亡或是自卫的工具。红十字国际委员会在正式文件中,将自主武器定义为任何在作战等实际功能中具备自主性的武器系统,是不需要人类操控或指挥就能在激活后自主选择和攻击目标的武器操作平台

③ Maurice Waite.牛津袖珍英汉双解词典(第11版)[Z].北京:外语教学与研究出版社, 2018, 1646.

④ 红十字国际委员会.红十字国际委员会关于自主武器系统的观点[EB]. http://www.docin.com/p-2060103707.html, 2016-04-11/ 2020-03-20.

美国国防部在2012年11月发布的编号为DoDD3000.09的指导文件Autonomy in Weapons Systems中,将自主武器系统的定义概括为:“一旦激活,便能够在没有人员进一步操作的情况下,自主选择目标并与之交战的武器系统。”[2]机器人军备控制国际委员会(International Committee for Robot Arms Control)联合创始人兼副主席彼得·阿萨罗教授认为:“自主武器是任何能够在没有直接人的监督和直接人参与致命决策的情况下,瞄准和主动使用潜在致命力量的系统。”[3]可见,未来自主武器投入战场后能够像战斗员一样实施攻击和防御行为。然而,作为战斗员而言,在战场中必须自主遵守战斗规则以及理解人的道德价值体系。反观自主武器,它缺乏人的感情和价值判断。因此,自主武器并不具备战斗员的先天条件。综上,笔者认为,自主武器是同时具备进攻和防御属性的人工智能化的武器,能够在未来战场中自主实施作战行为。

(二) 自主武器的特征探究

首先,从自主武器的作用基础来看,自主武器系统的开发与部署,必须以成熟的人工智能技术为基础。[4]2015年7月召开的国际人工智能联合会议曾在开幕式上发布了一封公开信,信中称“在未来,成熟的人工智能技术将为完全自主的武器提供技术支持”。“人工智能武器”归根到底是人工智能程序效能的实际发挥,军方对武器进行智能化改造,极大提升了武器的军事效益,常规武器可以通过自主性武器系统这一应用平台获得前所未有的“自主性”。[5]

其次,人工智能技术给自主武器带来的第二个显著特征是自主武器具有区别于其他武器的自主性。最近,自主性已被美国认定为军事现代化计划的基石。这一举动很可能会影响其他军事大国。具备自主武器的生产研发能力的国家将站在未来军事斗争的战略制高点上,自主武器能够带来操作驱动力。军事计划者认为,自主性能够让武器系统在战场上提高速度、准确性、持久度,并扩展打击范围与合作范围。其强大的无需人工操作的自主性使得自主武器更具智能性。自主武器在战场上扮演类似战斗员的角色,自主武器的适用将减少作战的人力成本,这对于人口资源贫乏的国家来说无疑带去了巨大的军事驱动力。

最后,从自主武器的适用环境上看,对于自主武器而言,从出生之日起就必然面对复杂的战场环境。一方面,随着科技的发展和战斗方式的转变,战场环境变得更加复杂,促进了陆海空联合作战方式普及于大多数国家,以及高精尖无人化趋势也更加明显。另一方面,国际人道法既包括《日内瓦公约体系规则》,也包括战争法传统意义的《海牙公约体系规则》,相对完备的国际人道法框架使得国际上在自主武器还未出生之时就必然用国际人道法的要求来审视它。

⑤《海牙公约规则》即1899年和1907年两次海牙和平会议通过的一系列公约、宣言等文件的总称。战争法规的国际条约主要分属两个体系,即海牙公约体系和日内瓦公约体系。海牙公约体系的主要内容是关于禁止或限制的作战手段和方法,主要是针对武器的限制;日内瓦公约体系是保护平民和受难员的规则。本文对于自主武器使用方面的限制主要依照《海牙公约规则》的要求。

(三) 自主性武器发展水平的差异性带来的影响

目前,不少国家的自主武器的发展水平已经达到了“自主化”的程度。2006年,由三星公司设计的SGR-1韩国武装智能机器人取得极大地进展,它能够识别2英里以外的潜在目标并对目标进行跟踪定位,同时利用自身配备的机枪武器,对于靠近的“客人”识别警告之后能够自主攻击。俄罗斯研发的自主无人战车,技术居于世界一流。美军研发出的“海上猎手”无人自主反潜战舰,能够在激活后无人控制航行数月。相较于世界大国而言,世界上大多数中小发展国家的武器装备仍然依靠进口,缺乏自主研发生产的能力,这样容易造成自主武器发展水平在各国之间存在着极大的差异。换言之,世界各国自主性武器发展水平的巨大差异造成的直接影响是世界各国对于未来自主武器适用态度存在差异。据《财富》北京时间2017年9月4日的报道,俄罗斯总统普京表示:“谁在开发人工智能技术方面取得突破,谁就将主导整个世界。”而发展中国家却对自主武器使用前景秉持消极态度,由此在世界范围内很可能会掀起一场关于自主武器研发的军备竞赛热潮。而中小发展国家将联合起来用法律和道德的角度审视自主武器未来的适用,以达到禁止自主武器适用于未来战场的目的。

⑥ 佚名.俄罗斯总统普京:谁在开发人工智能技术方面取得突破将主导整个世界[EB].http://www.jkeabc.com/news/20170904/137.html, 2017-09-04/2020-03-20.

早在2017年11月份,在日内瓦举行的CCW会议上,在资深AI研究者公布的视频中,外形酷似杀人蜂的小型人工智能机器人通过人工智能程序的面部识别系统辨别并第一时间射杀教室里的学生。杀人蜂携带有3克炸药,设计好进攻算法的智能“杀人蜂”接到攻击指令后锁定目标自主进攻。这也就意味着,杀人蜂机器人能够在激活后自由处分人类生命。在面对机器人自由决定人类生命的时刻,人类有必要就自主武器之于人伦道德的关系进行更深入的探究。如何认识和把握新技术和法律之间的关系是人类合理规制自主武器的重要理论支撑。彼得·辛格(Peter W. Singer)是华盛顿特区布鲁金斯学会(Brookings Institution)21世纪国防计划的主任,他曾担任过美国军方、联邦调查局、世界人权组织的调查顾问。在其访谈录中他曾谈到:“从国际人道主义法的角度来看,美国在军事上使用自主化武器并不是问题。一旦它发生在战区内,在一个相当透明的指挥链中,它就应当符合武器使用的规制条件和相关法律制度。”[6]

二、自主武器的适用存在违反国际人道法的可能性 (一) 自主武器的法律地位

“自主性”是自主武器区别于其他武器的本质属性。就其“自主性”而言,自主武器应被视为人工智能化的武器,不仅能够将其应用于军事突袭,还能将其应用于军事防御行动。一个国家对于未来自主武器适用何种属性清楚地反映出一个国家的军事态度。鉴于任何传统性质武器的适用都会受到国际人道法规则体系的审查,自主武器相对于传统武器而言,其蕴含的技术水平更高,适用的不确定性更大,自然更需要对其未来的适用进行法律审查。

另外,自主武器在战场上扮演着战斗员一样的角色,即使自主武器不具备人的感情,它们却具备“战斗员”攻击目标的行动能力。根据“行为责任理论”,由于行动主体是自主武器本身,其行动具备完全的自主选择性,并不受任何指挥官及操作员的控制。而自主武器本身无法实际负担其违反国际人道法后的法律责任,这也是其与“战斗员”本质上的差别,如此则容易存在“责任缺位”的情况。可见,自主武器若定位为战斗员将造成极大的“责任隐患”。

目前,学界大多把自主武器视为“武器”,另外,从目的解释的角度来看,我们研究自主武器定性的目的在于将自主武器放进国际人道法的角度进行审查其合法性,军事强国研发自主武器的目的在于通过对自主武器的使用以达到最大的军事效益。从这个角度看来,自主武器更像是各国争取战争胜利的方式和手段。《第一附加议定书》第36条明确规定,应当进行审査的方面不仅包括“武器”还包括“作战手段和方法”。因此不论是将“自主武器”定性为“武器”还是“作战方式和手段”,自主武器都不应逃过国际人道法的审查。

(二) 自主武器的使用极易与国际人道法原则相抵触

国际人道法中的区分原则要求:“冲突各方必须区分战斗员与非战斗员、武装部队与平民以及军事目标与非军事目标”。[7](P91)根据1977年附加议定书第57条第1款规定的“在进行军事行动时,应经常注意不损害平民居民和民用目标”,目前人工智能技术已经能够将禁止性规范加持到自主武器中,并且通过传感器、面部识别和AI摄影技术,对某一类的攻击目标能够进行精准的识别和定位。

笔者认为,自主武器具备高精度特性却仍然存在违反“区分原则”的可能性。一方面,强大的人工智能赋予自主武器识别某一类攻击目标特性的能力,可是另一方面,战场情况是瞬息万变的,平民和战斗员在机器人的视角中的区别相对模糊。举例而言,假设自主武器算法编程定位的攻击目标是一个特定类型的装甲车,即使算法编程记录了装甲车的特性,却无法具体定位攻击哪一台具体的装甲车,对于具体时间地点和特定目标的定位仍然不明确。由于军事行动现在经常在平民居住中心进行,平民也存在战时参与敌对行动的可能性,由此很难区分平民与战斗员。[8]另外,即使自主武器行动自主,其机器的属性就意味着它存在出现故障的可能。由于它们缺乏与人类相同的广泛的上下文智能或常识,即使是相对复杂的算法,如果它们面对超出预期设计参数的情况,也会失败。一旦出现故障,自主武器的高精度攻击能力以及区分能力随之丧失。从三次的工业革命来看,军事科技水平的不断提高,士兵和平民逐渐沦为大炮的饲料,随着国际人道法体系的构建,对于武器的规制和平民的保护成为国际人道法关注的焦点问题,新自主武器的技术革新,使得军事指挥官在把握区分原则方面的难度越来越高,因此在国际社会也就更多呼吁对于自主武器进行法律规制。[9]

在传统战争法规则中,“一切战争行动的基础就是消灭敌人军事力量”。因此在武装冲突中自然产生了禁止使用会造成不必要痛苦或过分伤害的武器或军事技术。“武器”的使用达到消灭敌人的目的即可,禁止造成“不必要痛苦”指的是如果使用此种武器,致使敌人在退出战斗之后仍然继续遭受着痛苦,则明显超出了作战目标。在“必要”与“不必要”的区分标准上,国际法院认为,“不必要痛苦”指的是不得大于“夺取合法军事目标所不可避免的痛苦”。那么评价武器的合法性取决于它所造成的痛苦程度是否与军事需要程度之间达成平衡。军事利益越小,武器致痛的水平应该越低。

判断自主武器是否存在造成“不必要痛苦”的可能性,应当结合现有的半自主武器或是自动武器的具体作战实践才能更好地研究。2004年,美国在巴基斯坦的364次无人机袭击导致4700多人死亡。[10]而无人机对人体的攻击大多容易造成严重的身体伤害,如失去四肢或造成永久性疼痛伤害。无人驾驶飞机的袭击不仅会造成杀戮或身体伤害。还会对目击者和受害者家属造成严重的精神伤害。例如,在瓦济里斯坦,三个孩子目睹了他们的祖母在一次无人机袭击中被炸得粉身碎骨。仅仅是对这一创伤的记忆仍然给他们的成年生活造成巨大的精神痛苦。无人机袭击式攻击造成巨大的身体和心理的痛苦和军事目标完全不相称。斯图尔特·凯西·马斯伦(Stuart Casey-Maslen)博士是日内瓦国际人道法与人权学院的研究主管,他是专门负责研究武器法和非国家武装行为者对国际准则的遵守情况,他曾在国际评论中指出:“使用武力应当把握必要的限度,要把握必要性和相称性的统一。此外,采取的任何行动都必须是成比例的。”[11]

另外,国际人道法中的比例原则要求在对军事目标进行打击的过程中应当最大限度地减少对平民和民用物体造成的附带损害;对民用目标发动攻击的前提必须是攻击该目标获取的直接军事利益远大于攻击该目标带来的损害;在选择攻击手段和方法时,要尽可能减少对平民和民用物体所带来的附带损害。可以发现,在比例原则指导下,指挥官作出的攻击选择体现了军事行动的价值判断,体现出指挥官在瞬息万变战场环境下的价值考虑。

自主武器在激活之后,自主武器在预设的算法编程中攻击选择将完全自主,它将根据算法中的目标特征自主选择攻击目标。面对复杂的战场环境,自主武器攻击模式是相对死板的,如果符合目标特征的攻击对象处于一座核电站内,那么自主武器也无法作出价值分析,而攻击目标附带造成的核电站的摧毁将造成的损失以及给人类带来的环境等方面的负面效应与直接军事利益而言是完全不对称的,但是自主武器却缺乏自然人的“判断意识”。第一附加议定书规定了攻击“应严格限于军事目标”,一旦遭遇含有危险力量的工程或者物质,如堤坝和核发电站,即使这类物体是军事目标,也不应成为攻击对象。因为这类危险力量的释放极其容易给平民居民造成严重的损失。自主武器缺乏价值判断是违反比例原则的关键原因。

⑦《日内瓦第一附加议定书》第52条第2款。

⑧《日内瓦第一附加议定书》第56条第2款。

(三) 自主武器存在违反“马尔顿”条款的可能性

“马尔顿条款”(Marten’s Clause)是由俄罗斯著名国际法学家马尔顿先生在1899年第一次海牙和平会议中的一次声明中提出的,该条款声明:“在完成的战争法的法典编撰之前,在迄今为止法律规范还未包括的情况下,平民和战斗员仍受出自文明国家、人道法规和公众良知的国家法原则的保护。”“马尔顿条款”最早被载入1899年和1907年海牙公约序言中。之后又被1977年日内瓦公约的第一附加议定书记载。

⑨《陆战法规和惯例公约》序言第9段、1907年海牙《陆战法规和惯例公约》序言第8段。

所谓“公众良知”亦或是“公序良俗”,是指传统社会历史及人文领域的公序良俗,也一直是大多数国家民事法庭判案的依据之一。另外,国际红十字委员会认为:“武器的使用涉及人类的伦理问题,而关键的判断标准武器的使用是否有侵犯人的价值和尊严。”可以看出,不论是古代亦或是当今国际组织对于“公众良知”的解读大多要求对人性的尊重和人的价值的考量。

⑩ 红十字国际委员会.自主武器系统——技术、军事、法律和人道视角[EB].https://www.icrc.org/zh/document/report-icrc-meeting-autonomous-weapon-systems-26-28-march-2014, 2014-11-01/ 2020-04-21.

2017年8月,国际红十字委员会与独立专家召开了圆桌会议,探讨自主武器系统提出的伦理问题以及人类控制要求的伦理层面。既然“马尔顿条款”中的“公众良知”标准要求在武装冲突中体现人的价值和尊严,那么自主武器投入战场使用后必然会屠杀人类,除非交战双方都只限于使用自主武器的对战方式,但是由于国际上各个国家人工智能发展水平的差异,这种方式发生的可能性变得很小。联合国特别报告员克里斯多夫·海恩斯警告说,允许致命的自主机器人杀人可能会贬低生命本身的价值。并且根据人权组织的观察,由于缺乏作出道德决定所必需的人的素质以及道德机构,完全自主的武器将越过道德的门槛。

在伦理辩论中,人们似乎普遍承认,在使用武力的决定中,特别是在杀戮、伤害和毁灭的决定中,保留人类的代理和相关意图的重要性。换句话说,许多人认为机器不能左右人的生死,不能把这些决定的责任委托给机器。换言之,与此密切相关的是对丧失人类尊严的关注。重要的不只是自然人是否被杀或受伤,而是他们如何被杀或受伤,包括作出这些决定的过程。有人认为,如果人类的机构无法在有效和功能上被授权或控制自主武器作出进攻决定,它就很有可能会损害被攻击的战斗人员或处于危险之中的平民的尊严。

笔者认为, 决定敌人被杀死的决策过程应该是由人来主导,而不应是机器,因为,这侮辱了自然人的尊严和价值。与此同时,如前所述,自主武器缺乏人类的价值观念,对于击杀目标缺乏价值判断和思考,这就决定着自主武器对于是否满足军事需要、什么是“过分伤害”没有主观上的概念,因此未来自主武器完全存在着违反“马尔顿条款”的可能性。战争法赋予战争和暴力的法律条件,也是启动战争的法律按钮。[12]

三、自主武器适用于战争的规制条件 (一) 自主武器在不对称战争中的危害

现代武器的出现比以往任何时候都要求各国在军事利益和法律义务之间取得适当的平衡,[13]在CCW会议的公开文件中,大多发展中国家在对自主武器进行定义的过程中认为,“自主武器是缺乏人类干涉,并且可以决定人类生死的武器系统,由于武器系统缺乏同情和直觉的能力,很可能引起军备竞赛”。中小发展中国家缺乏研制自主武器的客观技术,从军事利益的角度看,在未来若是允许自主武器投入战场对于中小发展中国家而言将直接面临着和自主机器人的对战,他们跟发达国家的军事差距将进一步拉大,他们和使用自主武器国家的战争将构成不对称战争。所谓“不对称战争”,就是指冲突的交战方处于不平等的地位。未来自主武器在战场上的适用在大国主导下将变得很难阻止。

未来的武装冲突,双方很可能处于不对称的地位。首先是交战双方军事力量的不对称,这样的不对称也很有可能带来其他层面的不对称。公开的武装对抗明显不符合军力弱势一方的利益。为了实现有效打击强大的对手,处于军事弱势的一方往往违反人道法使用受保护的标志和制服伪装成平民,这在某种程度上可以免于被自主武器攻击。在这样的不对称战争中平民和战斗员的分界变得模糊,国际人道法的原则自然被践踏了。

另一方面,未能拥有自主武器的一方军队面对冷冰冰的机器人,军力实力悬殊差距以及人的生命面临机器处分的屈辱感时,人会产生极强的报复心,恐怖主义行动的内心状态已经萌生。当一个种族或民族面对亡国灭种之危险时,它的复仇心态将会冲破人性和法律的束缚,之前他们所面临的不对称状态将会以恐怖主义的形式返还。可见,由未来自主武器产生的“不对称战争”将引起极大的消极影响。

(二) 中国版的规制自主武器三原则

第一、原则上禁止自主武器适用于武装冲突。在大国利益的主导下,未来自主武器极有可能被某些别有用心的国家作为攻击性武器使用于战场。一方面,自主武器适用于战场存在违反国际人道法的可能性;另一方面,自主武器未来适用容易引发“不对称战争”,造成不可估量的危害性后果。因此,原则上应当禁止任何国家在未来主动使用自主武器。可是,未来自主武器带来的军事驱动力完全超出了承担违法责任的代价,自主武器的使用必然是大势所趋,那么如何在现代国际法的框架内规范自主武器的适用条件就显得更具实践意义了。

第二、任何交战一方不得对于不具有或无能力研发自主武器的一方使用自主武器。首先,纵观目前为止发生的武装冲突都是战斗员之间的对抗,即使是军事高科技水平背景下的现代化战争,陆海空现代化武器装备的运行系统背后也都是由人工控制的,若在未来出现自主武器的枪口对准无研发自主武器能力的国家的情况,这无疑将是对传统战争对战模式的挑战。其次,对等性是武装冲突规范中的一个十分重要的原理。自1949年日内瓦公约草案引入对等性概念和国际上关于保护武装冲突中受难者的制度建立以来, 对等性原则日益成为国际战争规范中广泛适用的原则。[14]《第一附加议定书》第35章在规制未来战争作战手段和方式的同时,也渗入了作战对等性的概念,要求作战双方的作战手段和方式具备一定的对等性。因此,对于不具有或无能力研发自主武器的国家使用自主武器是严重违反公约精神的体现。最后,对无自主武器研发能力的国家使用自主武器是对人性尊严的亵渎,由于自主武器具备自由处分人的生命的能力,它们是能够在没有任何人类指令输入或人机互动操作情形下自主选择攻击目标并开火的一种武器平台。[15]不论自主武器所针对的攻击目标是合法亦或是非法,即使是机器处决合法的攻击目标时,决定人如何死亡的权力赋予了机器,损害了目标人群的尊严。对于机器来说,目标人群变成了物体,而处决他们只是算法中的0和1的区别而已。用机器代替人去处决的方式,从道德价值来考量是弊大于利。

第三、国家面临生死存亡之际以自主武器行使自卫权的合法可能性。如前所述,自主武器是具备攻击和防御属性的人工智能化武器。若在武装冲突中率先使用自主武器的攻击属性,说明该国缺乏对自主武器违法性的认识,进而有理由怀疑该国具备积极的军事霸权主义倾向,为国际法所禁止。

此外,自主武器同样具备防御属性。在未来作为防御武器似乎仍有适用的空间。就诉诸战争权而言, 对等性表现在只有当敌方非法入侵挑起战争时方可诉诸战争进行自卫还击。日内瓦的红十字国际委员会法律司的高级法律顾问耶琳娜·佩吉奇在红十字委员会评论期刊中表明:“一个国家行使其自卫权是建立在习惯和法律的基础上的,根据该规定的通俗易懂的语言,一国可针对正在进行的武装袭击采取个人自卫行动。”[16]同时,根据《联合国宪章》第51条的规定,合法使用武力应严格规制在为自卫使用武力或集体自卫行为上,也就是说,《联合国宪章》第51条保留了国家对联合国会员国“如果发生武装袭击”享有个人或集体自卫的固有权利。同样,在交战法规方面,自主武器在未来的防御适用方面同样也有符合对等性要求的空间。比较而言,1945年8月6日,美国在日本的广岛和长崎投掷原子弹。之后核武器再也未被使用过。联合国规定除了五大常任理事国之外,为了防止核武器的扩散,其他国家不得拥有核武器,拥有核武器的国家目前也只是将其作为战略威慑武器。1996年7月8日,联合国国际法院应联合国大会的请求,就关于《使用核武器或以核武器相威胁的合法性问题》提供了咨询意见。在国际法院的法官一致赞同使用核武器必须符合武装冲突规则及国际人道法原则规则的同时,考虑到很多国家已经将核威慑作为重要的军事政策,并且基于国际法的现实情况,国际法院认为:“在关乎一个国家自身生存都危如累卵的自卫的极端情势下,该国使用核武器是合法或是不合法,法院不能得出一个确定的结论。”可见,国际法院没有全盘否定一个国家基于自卫权适用核武器的可能性,也就保留了一个有核国家面临生死存亡之际适用核武器的合法可能性。因此,当国家面临生死存亡之际以自主武器行使自卫权则应当具备相当的合法性。

⑪ ICJ, Legality of the Threat or Use of Nuclear Weapons(Advisory Opinion), July, 8 (1996), para.97.

中国作为世界上爱好和平的负责任大国,在1964年氢弹爆炸成功之后,为了防止核武器的扩散,保证不会对无核国家使用核武器,也不会对有核国家首先使用核武器。同时,在《2010年中国的国防》白皮书中中国政府指出:“中国始终恪守在任何时候、任何情况下不首先使用核武器政策。”并且出于防御自卫、保障国家生存发展的角度丰富了核武器使用的内涵,从保护国家主权和人民财产的角度考虑,“不首先使用核武器原则”得到了完善和发展,形成了三个例外情况:第一种情况是中国的核基地遭遇突袭,中国有权使用核武器;第二种情况是中国战略核潜艇、导弹部队等战略力量遭遇袭击,中国有权使用核武器;第三种情况是中国本土民生工程遭遇重大袭击,比如大型水利枢纽遭遇打击的时候,中国有权使用核武器反击。同样,对于自主武器未来适用而言,一个国家面临生死存亡之际基于自卫权的行使而使用自主武器并不能被认为一定会抵触国际法律规范的。

四、中国应引领和推动规制自主武器的适用条件 (一) 中国在自主武器适用方面应持有的立场

中国是联合国安理会常任理事国之一,对于发展新兴军事力量应当站在维护世界和平以及保卫国家安全和人民生命财产利益的角度去考虑。面对人工智能技术迅速发展的今天,习近平总书记在中共十九大报告中号召“加快建设制造强国,加快发展先进制造业,推动互联网、大数据、人工智能和实体经济深度融合”,强调把握好人工智能革命这一重大历史机遇。[17]发展才是硬道理,中国要致力于人工智能武器的发展,这是顺应时代潮流之举。

2014年3月,CCW缔约国就自主武器未来适用问题组织了第一次非正式专家会议,之后2015年、2016年也常规性地召开了非正式的专家会议,并且由专家会议主席提交会议报告。直到2017年11月,公约缔约国之间开始召开政府专家组织会议(Group of Governmental Experts)。在CCW会议上围绕自主武器涉及的法律、道德及适用问题进行了多次的辩论,在辩论过程中也反映了各国代表团对于自主武器涉及法律及未来适用的态度。在这样的背景下,中国在自主武器的适用问题上的主张应分三步走:

第一项主张是“禁止自主武器适用于武装冲突的原则”。在CCW报告中指出:“自主武器技术的迅速发展有可能从根本上改变战争的性质。”传统战争的对战双方均是战斗员,未来自主武器的使用必将是对传统战争模式的挑战,更是对战争准入规则的亵渎。另外,一些代表也强调:“在没有人类干预的情况下让自主武器做出生死决定是违反法律的,不道德的,对人类本身也构成威胁。”报告中仍然有代表认为:“自主武器技术的发展对人类尊严的影响,把决定生死的权力交给一个机器人是一个重要的道德问题。”同时还讨论了可能制定和使用法律所涉及的人权问题,特别是生命权、人的尊严、受保护不受不人道待遇的权利和公平审判的权利。可见,在现实社会中,各国代表团在一定程度上都认为,自主武器未来适用于战场存在违法可能性,并且对于人的尊严是一种亵渎。为此,中国政府坚持和应引领、争取大多数国家的认同,推动“禁止自主武器在武装冲突中适用”的公约。

⑫ CCW, Report of the 2014 Informal Meeting of Experts on Lethal Autonomous Weapons Systems(LAWS), P.3, see:https://undocs.org/ccw/msp/2014/3.

⑬ CCW, Report of the 2015 Informal Meeting of Experts on Lethal Autonomous Weapons Systems(LAWS), P.4, see:https://undocs.org/ccw/msp/2015/3.

⑭ CCW, Report of the 2016 Informal Meeting of Experts on Lethal Autonomous Weapons Systems(LAWS), P.3, see:https://undocs.org/CCW/CONF.V/2.

第二项主张是“任何交战一方不得对于不具有或无能力研发自主武器的一方使用自主武器原则”。从报告中表明,大部分国家都表明了不希望自己国家未来会跟自主武器作战,一些代表提到:“自主武器的适用将会严重影响区域和全球的战略稳定,造成新形式的军备竞赛、新的不对称以及降低使用武力门槛。”若是未来自主武器的使用针对的是不具备研发自主武器能力的国家,将造成严重的军事力量不对称的情况,并且容易滋生恐怖主义的威胁。该主张是在第一项主张不能获得成果时,可以退而求其次地维护人类尊严的主张。

⑮ CCW, Report of the 2018 session of the Group of Governmental Experts on emerging technologies in the area of lethal autonomous weapons systems(LAWS), P.6, see:https://undocs.org/en/CCW/GGE.1/2018/3.

第三项主张是“国家面临生死存亡之际可以遂行自主武器行使自卫权原则”,将自主武器的适用限定在一定的情势中,自卫防御行动是自主武器未来适用的例外情况。CCW会议报告指出:“应该将自主武器控制的范围控制在法律、人伦和道德标准内。”而一个国家天然具备的自卫权完全符合其适用的法律标准,早在2015年的CCW非正式专家会议报告中就指出:“对于自主武器的控制可以通过多种方式进行,例如通过对资源的管理。控制不一定是绝对的。人类对武器系统的控制通常用于确定何时、何地和如何使用武力。”可以明确看出,在当时,各国代表团对于自主武器的适用条件有一定的设想,并且认为自主武器并不是在未来的任何时候都能够轻易使用,应当受到一定的规制,并且会议各代表团大都认为,使用自主武器的防御功能比进攻功能更加稳定,而一个国家重视自主武器进攻属性将极大地降低武力使用的门槛,容易造成世界范围内的军备竞赛,而武器的防御功能意味着自卫防守,不仅是一个国家自卫权行使的表现,更是能够将武力使用的门槛拉回正当的高度。联合国安全理事会是联合国下属的六个主要机关之一,是唯一有权采取军事行动的联合国机构,负有维护国际和平与安全的首要责任,因此在未来任何一个国家基于自卫权使用自主武器时,应当于联合国安理会备案登记。

⑯ CCW, Report of the 2015 Informal Meeting of Experts on Lethal Autonomous Weapons Systems(LAWS), P.5, see:https://undocs.org/ccw/msp/2015/3.

需要指出的是,该原则是源自自然法,也是根据国际法院关于《使用核武器或以核武器相威胁的合法性问题》提供的咨询意见为基础所进行的比较和推导。

(二) 规制自主武器的途径研究

CCW最早包括序言和11条正文,并附有5个附加议定书。签订CCW的目的在于禁止或规制使用某些被认为具有过分伤害力或滥杀滥伤作用的常规武器,涵盖了地雷、饵雷、燃烧武器、激光致盲武器,以及战争遗留爆炸物的清除。通过公约禁止或规制此类武器的适用,旨在使平民和战斗员在战斗发生的任何阶段均受人道原则、公众良知和既定惯例的保护。不同的议定书都针对不同的武器或作战方法,以《禁止或规制使用燃烧武器议定书》(又称第三议定书)为例,该议定书于1980年10月10号在日内瓦签订,议定书中第1条第1款规定,燃烧武器是指:“任何武器或弹药,其主要目的是使用一种通过化学反应在击中目标时引起火焰、热力、或两者兼有的物质,以便使击中的目的物燃烧或引起人员的烧伤。”燃烧武器是一种常规武器,在攻击目标的同时会造成目标对象的烧伤,可见,适用燃烧武器的作战一方在达到自身军事利益的同时容易给敌方带来过分伤害和不必要的痛苦,CCW议定书对燃烧武器的使用作一定的规制具备现实意义。前文言及,自主武器未来使用不仅会给敌方人员带来不必要的身体痛苦,也会带来极大的心理创伤。CCW规制的武器范围不仅仅避免造成敌方的不必要痛苦,同时也要求该武器是常规武器,那么,若要以增列CCW议定书的方式作为规制自主武器未来适用的途径,则必须论证自主武器属于常规武器。

目前,学界大多认为:“常规武器是除核武器、生化武器等大规模杀伤性武器以外的其他武器。”常规武器投入战场后的影响是人类能够预见的,而非常规武器一旦投入战场后人类将无法控制并且无法预计发生的危害后果,例如,生物武器是以生物战剂杀伤有生力量和破坏植物生长的各种武器或器材,投入使用过后将导致人畜染病,并且危害持续时间长,受影响的范围无法估量。在二战期间的中国战场上,侵华日军第100部队(简称“第100部队”)打着“防疫”的幌子制造细菌武器,无数中国人遭到迫害,当年,日军开展的“细菌战”使得整个东北乃至全国都笼罩在细菌战的巨大威胁中。[18]时至今日,当年遭受细菌战侵害的中方受害者有的染上了各种无法医治的怪病,一生处于痛苦之中。另外,将细菌投入水井之后,由于受众的不确定性,也就给作战另一方造成无差别的攻击及影响。另以核武器为例,1954年10月23日,巴黎第三议定书(关于军备监督)附件二给核武器下的定义为:“所有含有或被设计为含有或使用核燃料或放射性同位素,通过爆炸或其他非控制的核转变,或通过核燃料或放射性同位素的放射现象,足以造成大规模毁坏、普遍损害或大量中毒的武器。”[19](P94)另外,核武器在技术上可分为裂变原子弹(即原子弹)和聚变热核弹(即氢弹),根据其性能,有以下的效力:首先,核武器具有强大的冲击波效力和比威力最大的传统炸弹发生的热量强几百万倍的热效力。其次,大面积范围内的辐射效力以及能够致人患白血病、骨癌等疾病。另外,核武器对自然界引起广泛和长期损害的生物效力。通过核武器的性质可得,核武器投入战场后,一方面将给整个敌方战场带来“无差别屠杀”,另一方面,其释放的巨大破坏能量将是人类无法估量和控制的,对人类文明势必造成毁灭性的影响。由此可见,非常规武器具备“无差别攻击性”,投入战场后人类无法对其进行控制,其危害后果也无法估量。

如前所述,目前人工智能技术已经能够使自主武器对某一类的攻击目标进行精准的识别和定位。但在具体的战场环境中,自主武器的未来使用存在违反区分原则的可能性,同时,武器的属性意味着存在发生故障的可能性,而自主武器一旦激活之后将脱离人类控制独立选择和攻击目标,这使得在未来发生故障后的危害变得难以预测,自主武器在未来甚至存在“无差别屠杀”的可能性。可以看出,自主武器存在非常规武器特性的可能性,将其定性为非常规武器具备一定的合理性。因此,通过CCW增列议定书的方式规制未来自主武器的适用条件是不可取的。我们应当借鉴对非常规武器的规制途径来探究自主武器的规制方式。迄今为止,国际方面对于核武器的使用作出了各种规制,2017年7月,由122个国家专门通过《禁止核武器公约》。对于生物武器而言,早在1925年《日内瓦议定书》就有禁止使用生物武器的规定,并且在1972年,由美国、英国等12个国家共同签署了《禁止生物武器公约》。由此,中国应该积极引领并推动“规制自主武器公约”的签订。

五、结语

“规制自主武器公约”是人类文明进步的重大事项,中国政府可未雨绸缪地制定自主武器的适用条件和标准,引领或推动该公约的产生和完善。笔者建议的“中国在自主武器适用方面应持有的立场”可以作为我国政府推动公约达成的抓手,并进一步推动世界各国认识和理解规范未来自主武器使用的必要性。自主武器的未来适用条件问题同样引起了国际红十字委员会、联合国其他组织、欧盟、世界人权组织及有关组织的关注,在未来,我们需要这些组织去积极宣传和推动公约理念的传播,由此为公约的建立打下舆论基础。另外,达成公约还需要中小发展中国家联合起来在国际组织上增强话语权,形成合力影响有关未来自主武器使用的国际决策的实际走向。

中国国家领导人习近平主席在多个国际场合和国际会议上,倡导性地提出应在世界上努力构建人类命运共同体。“人类命运共同体”理论是推动达成公约的政治基础。推动国际社会接受中国版的规制自主武器的各项原则正是实践人类命运共同体理论的重要抓手。有理由相信,中国政府的这一立场和倡议不仅符合自然法规范,也会赢得广大发展中国家的高度赞同和鼎力支持。

中国版的规制自主武器的各项原则,不仅有利于维护广大发展中国家的权益,同时具有符合自然法的重要特点,因此,中国的倡议一定会赢得国际社会大多数国家的支持。客观上而言,规制自主武器实际上是规制军备竞赛的一个前瞻性的重要举措,是着眼于维护人类尊严的国际人道主义法的必然要求。

参考文献
[1]
徐能武, 葛鸿昌. 致命性自主武器系统及军控思考[J]. 现代国际关系, 2018, (7): 54-62, 23. (0)
[2]
曹华阳, 况晓辉, 李响, 等. 致命性自主武器系统的定义方法[J]. 装备学院学报, 2017, (3): 38-44. DOI:10.3783/j.issn.2095-3828.2017.03.007 (0)
[3]
Peter Asaro, On Banning Autonomous Weapon Systems: Human Rights Automation, and the Dehumanisation of Lethal Decision-making[J], International Review of the Red Cross, Vol.94, (2012), p.690. (0)
[4]
黎辉辉. 自主武器系统是合法的武器吗?——以国际人道法为视角[J]. 研究生法学, 2014, (6): 125-132. (0)
[5]
董青岭. 新战争伦理:规范和约束致命性自主武器系统[J]. 国际观察, 2018, (4): 51-66. (0)
[6]
International committee of the Red Cross, Interview with Peter W. Singer[J], International Review of the Red Cross, Vol.94, (2012), p.473. (0)
[7]
朱文奇. 国际人道法[M]. 北京: 中国人民出版社, 2007. (0)
[8]
R Millson and D Herman, Killing by Drones: Legality under International Law[J], The Foundation for Law, Justice and Society, Vol.18, (2015), p.100. (0)
[9]
Vincent Bernard, TACTICS, TECHNIQUES, TRAGEDIES: A HUMANITARIAN PERSPECTIVE ON THE CHANGING FACE OF WAR[J], International Review of the Red Cross, Vol. 97, (2015), pp. 961-962. (0)
[10]
Helin M Laufer, War, weapons and watchdogs: an assessment of the legality of new weapons under international human rights law[J], Cambridge International Law Journal, Vol. 6, (2017), p.68. (0)
[11]
Stuart Casey-Maslen, Pandora's box? Drone strikes under jus ad bellum, jus in bello, and international human rights law[J], International Review of the Red Cross, Vol.94, (2012), pp.603-604. (0)
[12]
Hilary Charlesworth, THINK PIECES LAW AFTER WAR[J], Melbourne Journal of International Law, Vol.8, (2007), p.243. (0)
[13]
C Greenwood, The Law of Weaponry at the Start of the New Millennium[J], International Law Study, Vol.71, (1998), p.185. (0)
[14]
冯晓青, 胡梦云. 浅析国际战争规范中关于战争的对等性原则[J]. 法学杂志, 1997, (5): 34-35. (0)
[15]
Gregory P. Noone and Diana C. Noone, "The Debate Over Autonomous Weapons Systems"[J], in Case Western Reserve Journal of International Law, Vol.47, (2015), p.28. (0)
[16]
Jelena Pejic, Extraterritorial targeting by means of armed drones: Some legal implications[J], International Review of the Red Cross, Vol.96(2014), p.71. (0)
[17]
习近平. 决胜全面建成小康社会夺取新时代中国特色社会主义伟大胜利——在中国共产党第十九次全国代表大会上的报告[J]. 新疆水利, 2017, (6): 1-26. (0)
[18]
刘硕, 张博宇. 苦难见证:揭秘侵华日军细菌战第100部队[J]. 军事文摘, 2018, (21): 63-66. (0)
[19]
(法)夏尔·卢梭.武装冲突法[M].北京: 中国对外翻译出版公司, 1987. (0)