树人论文网一个专业的学术咨询网站!!!
树人论文网

国际人道法下新武器之自主武器系统合法性探究

来源: 树人论文网发表时间:2019-11-22
简要:自主武器系统虽然在国际上没有一个公认的定义,只有一些红十字国际委员会和一些国际人道组织的相关解释。但顾名思义,自主武器系统就是将武器与人工智能自主系统相结合而制造

  自主武器系统虽然在国际上没有一个公认的定义,只有一些红十字国际委员会和一些国际人道组织的相关解释。但顾名思义,自主武器系统就是将武器与人工智能自主系统相结合而制造出的一类兼具杀伤性与智能自主性的武器。纵观人类的武器发展史,其实就是利用科技的进步不断提升武器智能的过程。在许多军事题材游戏中,玩家可以架设自动的机枪、榴弹发射器攻击敌人,这些武器一旦架设就会自主攻击不需要操作,而且一次攻击就能造成大规模的杀伤。

  虚拟游戏中玩家对这类武器的热衷也从侧面反映了自主武器系统为何在现代战争中受到青睐。美国于2001年的阿富汗战争中就已经开始釆用自主武器系统进行攻击、防御、警戒以及侦察。其后在长达十数年的战争中,美国以及以色列在巴勒斯坦、阿富汗、伊拉克等地区设置了大量自主武器系统。

国防科技论文

  为了避免士兵的伤亡以及追求自动的打击,自主武器系统慢慢成为了战场上常见的武器。美国如今很少使用大量的地面部队进行部署,而是利用大量的自主武器系统取代战斗人员。自主武器系统逐渐成为了现代战场的主要武器并取得了巨大战果,但是对自主武器系统广泛和随意地使用也带来严重的国际人道法问题。许多国际组织对于自主武器系统的问题进行调查并发表报告。本文将具体探究自主武器系统引发的国际人道法问题及其对策。

  什么是自主武器系统

  自主武器系统通指一类智能机器人武器系统,一经启动,即可在无需人类操作员进一步干预的情况下选择和打击目标,其核心因素在于机器人在挑选目标和使用杀伤力时可以自主“选择”。

  自主武器系统的技术要求非常高。从开发到部署往往需要耗费大量的科技力量与资金。自主武器系统主要基于高级的人工智能技术,这也从根本上把自主武器系统和遥控武器区分开来。遥控武器,如武装无人机以及一些安装在装甲车上的遥控武器站。虽然此类武器可以在千百千米之外的地区执行侦查或攻击任务,但其行动仍然处于人类操作员的控制之下,仍不具有自主选择和行为的能力。

  相比之下,自主武器系统集合了大量的人工智能技术,其类似于一个高级智能的机器人,可以根据不同的时间、地点、天气、战场态势等因素进行动态的自我判断以作出应对,从某种意义上已将人类的决策排除在外。但是自主武器系统和人类的不同之处在于,它们还不具有自觉遵守战场法则的思维能力。虽然人类在这方面投入了相当多的资金及努力,但这类系统尚未完全理想化,而若就此将其投入战场,必然会导致与人类战争法则的冲突并引发争议。

  2010年,英国航空航天公司为他们新研发的无人机举办了一场盛大的发布会。这次的无人机不再是“遥控武器”,而是名为“塔兰尼斯”的完全自主无人机,造价高达1.4亿英镑,它可以深入敌方腹地搜集情报、轰炸、抵御敌方战机的攻击。这架飞机只是武器自主化的其中一个例子,就像曾担任英国国防部采购部长的德雷森爵士所说:“无需人类信息指令,能够独立做决定的机器将彻底改变现代战争。”

  与传统的有人操作的武器系统相比,自主武器系统有许多独有特点。

  与有人操作的武器系统相比,自主武器系统的一大特征就是能够自主战斗。自主武器系统虽然技术含量较高,但是一旦掌握技术即可量产,体积大小也可以视需要而定;操作和维护相对简单,袭击准确度高且自身目标小,不易被发现。最重要的一点就是即使被击毁也不会造成士兵的伤亡,没有人员损失。整体来说,自主智能系统的发展经历着两个显著的变化趋势:一是由侦察观测型系统向携带机枪、火箭的武装攻击型武器系统的转变;二是由后台地面同步人工操控的半智能武器系统向完全自主化武器系统的转变。

  当武器无需人类指令,将彻底改变未来战争

  自主武器系统在战场环境适应方面具有更加优秀的性能。自主武器系统可以投放到几乎所有恶劣的环境之中执行战斗任务,如有必要人们也可以通过摄像头观察其战斗或侦察情况。并且自主武器系统能够不用考虑人类身体机能而长时间地战斗。英国研发的智能战斗机器人可以无间断工作3天,从中可以看出自主武器系统能够不受人体极限的限制,也不用考虑恶劣天气和极端环境对人产生的影响。

  由此可见,自主武器系统在军事上有着巨大的优势。

  自主武器系统的国际人道法探究

  自主武器系统提高了武力投射力(保存已方士兵的生命),并加倍放大武力(以更少的人做更多的事),既能节省人力和财政资源,又能提高驻防时间,并可承受高加速度等其他人类难以逾越的障碍。国际上早已存在相关人道主义条约来对战争中武器的使用进行限制,然而随着科技的发展,武器也飞速地升级,武器发展的速度已经超越了条约制定的速度。

  那么新武器自身的合法性该如何确定是一大问题。涉及武器限制与禁止的国际条约,主要有1868年的《圣彼得堡宣言》、1899年的《海牙诸宣言》、1907年的《海牙诸公约》。此外,类似的对特定武器作出了限制和禁止的国际文件还有:1925 年的《禁止在战争中使用窒息性、毒性及其他气体的日内瓦议定书》、1972 年的《生物武器公约》、1976 年的《禁止為军事或任何其他敌对目的使用改变环境的技术的公约》、1980年的《常规武器公约》、五个议定书(《关于无法检测碎片的议定书》《关于地雷、饵雷和其他装置的议定书》《关于燃烧武器的议定书》《关于致盲的激光武器议定书》《战争遗留爆炸物议定书》)、1993年的《化学武器公约》、1997年的《禁止使用杀伤性地雷的公约》,以及《国际刑事法院罗马公约》等。这些国际条约明确了需要被限制或禁止的特定武器的类型,是对新武器进行审查时应首先考虑的国际法规则。

  《日内瓦公约》等协定,都从国际人道主义出发,对军事攻击加以限定

  而这些条约所针对的一些武器,随着时间推移,在现代人看来已经十分老舊,无法称之为“新武器”。惟一明确规定对新武器、新的作战手段和方法进行法律审查的国际法规则是1977年《日内瓦公约第一附加议定书》第36条。该条规定的主要目的是在对新武器、新的作战手段和方法的研究、发展、取得或者采用之前就审查他们的合法性。但时至今日,自主武器系统并未被彻底审查合法性,也未在国际公约中被禁止。

  如果以国际人道法的原则为参照,国际人道法的四个基本原则是区分原则、军事必要原则、不必要痛苦原则和比例原则。跟一项新武器相关的原则主要是区分原则和不必要痛苦原则。区分原则要求在战争和武装冲突中始终对战斗员与平民、军事目标与民用物体加以区别,是国际人道法的根本原则。所以相应的,国际人道法禁止使用武器进行不分青红皂白的攻击,这也是《日内瓦公约第一附加议定书》中规定的;还有就是禁止使用会造成不必要痛苦的武器,如膨胀子弹、燃烧武器、激光致盲武器等。

  从这两条原则的字面来看,自主武器系统既不是不分青红皂白的武器也不是导致不必要痛苦的武器,因为自主武器系统主要是作为一个平台搭载机枪、榴弹发射器为武器,机枪榴弹都是合法武器,从某种意义上来说,自主武器系统只是把武器的载体由人换成了一个“人工智能体”。所以根据国际人道法的基本原则,自主武器系统与一般武器的区别是自主武器系统没有操作人员而是依靠自身的“大脑”进行判断与战斗。所以自主武器系统从国际人道法来看,应当归类为合法武器,或者说是并没有受到禁止的武器。当然,这一切的前提是其在战争中能够以遵守国际人道法原则的方式使用,因为在实际的战场使用中,自主武器系统对国际人道法造成了许多挑战也带来了争议。

  致命决策去人类化的挑战 自主武器系统带来的“致命决策的去人类化”将对人道主义带来根本性的挑战。所谓人道,正是作为人所特有的一种最基本的天性,会同情,会怜悯,会判断。而国际法,尤其是国际人道法,则为人类之间使用武力互相伤害保留了谨慎的缺口并提供了必要的规则。

  而如果自主武器系统被大量引入战场代替人类,人们只需要把它们部署到战场,接着就可以在千里之外看着它们自动地撕碎敌人,这么一来战争似乎就成为了与电子游戏一般,自主武器系统对待敌人就如同我们对待游戏中的敌人一般冷酷无情。自主武器系统的出现则将这种致命决策去人类化的弊端推到了极致,人们在心理上对武力的判断以及实际中带来的杀伤的距离将会进一步扩大,甚至磨灭人之所以为人所具有的基本的关切。因而,自主武器系统的致命决策去人类化对国际人道法造成了冲击,其合法性问题不得不被认真审视。

  自主武器系统的法律地位模糊 关于自主武器系统的法律地位存在着争议。自主武器系统和当今造成巨大争议的无人机不同,无人机并不是一个类似全智能机器人的、能拥有自己的意识判断的机器,而是由大量的工作人员在后台遥控操作。与之相比自主武器系统拥有自己的判断力,不需要人在后台操作即可自行战斗。

  这样就引申出一个问题:自主武器系统究竟应当被视为武器,还是战斗员呢?在词典中,武器被认为是“被设计或用于造成身体伤害或死亡的工具”,或是“在冲突或对抗中赢得优势或者保卫自身的一种手段”。无论是从词义出发还是从一般的理解出发,武器都首先被理解为使用武力的工具,其本质就是工具,不具有自主意识,其使用的违法与否绝大多数情况下取决于使用者的意志。相对而言,战斗员在《日内瓦第一附加议定书》中第43条定义为“有权直接参加敌对行动的冲突一方的武装部队成员(除第三公约第33条的规定所包括的医务人员和随军牧师外)”。

  按照上述理论来看,如果把自主武器系统当作武器,那么就忽视了它们的自主性,因为他们不需要完全按照使用者的意志来运行;可如果把它们定义为战斗员,那么会引发一个矛盾,就是他们如何来遵守现今的国际人道法以及战争法则?毕竟它们不是人类,很多情势的判断真的难以用人工智能来取代。更重要的,如果将自主战斗系统视为战斗员,那么战争责任的追究也是难以进行的。国际刑法的一个重要的特征就是追究个人刑事责任,由犯有国际刑事犯罪的自然人承担相应的国际法责任,而自主武器系统是一台机器,要如何对它进行追责?就算追责,是部署它的士兵的责任还是设计编程者的责任呢?很显然在如今的责任机制下自主武器系统的法律地位十分模糊。