如果有一天,机器和计算完全接管了世界
添加时间:2019-08-27 点击次数:479
伦理是指在处理人与人,人与社会相互关系时应遵循的道理和准则,它不仅是人类共同遵守的行为规范,而且还能够深刻揭示行为规范背后蕴含的真理。伦理可以应于不同的场景,形成不同的行为规范。如社会伦理、科技伦理、教育伦理、医学伦理等。伦理确定的行为规范不是一尘不变的,要随着时代的发展而变化。战争伦理是在战争环境下,处理人与人、人与武器、武器与武器关系时应遵循的行为规范,是一种世界共同观念。科学技术是推动战争形态变革的主导力量,每一次技术的变革都不同程度影响着战争伦理的变化。作为第四次工业革命的主导技术——人工智能技术,正在深刻变革人们的生活生产方式,将带来新的一场军事变革风暴,必然对现有的战争伦理提出新的挑战。
人工智能技术模糊了战争主体的人本性
战争是政治交往的延续。战争不仅是一种政治行为,而且是一种真正的政治工具,是政治目的通过另一种手段的实现。战争是阶级或集团解决政治问题的最后手段,战争的决策权在阶级或集团手中,由其代言人来决定,本质上是由人类自己决策的。
人工智能技术的发展拓展了一个新的空间——智能空间。这个空间是技术空间,具有鲜明的技术特征;这个空间是虚拟空间,没有一定的地理边界;这个空间是智力空间,有自己的思维认知。当阿尔法狗走出一步人类从未尝试过的“怪招”后,也预示着人工智能有自己的思维、有自己的认知、有自己的决断,甚至在某些方面超过人类的智慧。未来,人工智能武器装备系统有了自己的“思维”,便可以作出自我的“判断”,从而决定采取“恰当”的应对,完成了感知——理解——推理——判断的闭环,学会了OODA(Observe、Orient、Decide、Act)决策循环,一旦认为自己受到“侵犯”,主动或被迫采取“自卫”措施,并形成整个智能化武器装备系统的连锁反应时,点燃了战争的导火索。
这时候,战争行为决策主体已经从过去的人变成了人工智能,决策依附的载体从人变成了机器,此时不仅战争行为本身的正义性无法判断,而且人类主导战争的权利已经丧失。人成为了机器的战争工具,沦为了机器的奴隶。这不同于让人工智能取代人类汽车驾驶,民用和军用有着本质的差别,民用的危险是个体的、局部的,是可以接受和消解的,而军用的危险是群体的、整体的,关乎着民族、国家、人类自身的生死存亡,不可不察也。“如果未来有一天,机器和计算完全接管了世界,那么这种放弃就是末日之始。”
人工智能技术掩盖了战争手段的残暴性
人工智能和电力、内燃机一样,都是一种助力,也是一种通力,可以渗入到人类生活、工作的每一个场景,甚至可以代替人类去战斗。人在战争决斗中的“零伤亡”、战争环境的“低损伤”、战争目标的“超精确”,都会让人产生人工智能战争不再暴力的“错觉”。实际上,“非暴力”或是“低暴力”只是战争的手段,而非战争的本质。战争的本质是迫使对方丧失反抗能力和抵抗意志。因而,无论如何宣扬人工智能武器装备多么“精确”,战争方式多么“慈化”,强迫人的意志的本身就是暴力,可以说人工智能战争依然是暴力的。
如果把智能化武器装备作战与机械化武器装备作战相比,其在杀伤的范围和烈度上确实下降了许多,其根本原因是战争对象的不同。在陆、海、空、太空等实体空间作战时,杀伤、毁坏是目标,物体毁伤力的大小决定战争的成败。在信息、电磁等虚拟空间作战时,割断、干扰、破坏其“神经”联络是关键,信息破坏力的大小起主导作用。在未来人工智能空间作战中,脑力成战争力量的核心,夺取制脑权将成为主要作战样式,对智能系统的破坏和对人脑认知原理的破坏是主要作战目标。一旦采用物理、化学、生物、信息等技术对人脑的思维认知进行破坏、迟滞、干扰,使人成为“呆子”、“傻瓜”时,很难保证这种效果是暂时性的、阶段性的,如果引起人类基因层面的微观变化,很有可能遗传给后代。这种伤害已经超越了致残致死,变成了人类生存的危机。
不可否认,未来人工智能战争的主角是人工智能为主导的“无人战”、“自主战”,人甚至不用操作键盘或按下按钮。传统冲突形式是人运用武器进行人体互斗,以致死或致残为最终结果;人工智能战争是智能武器装备系统代表人进行机器较量,以伤脑或坏脑为最终目标。一定程度上,人工智能技术运用的娴熟程度和技术等级的高低决定着战争的成败,谁占据人工智能技术最高点,谁就能获得战争的主动权。从信息技术发展开始,技术的发展在国家或企业之间已经呈现了巨大的“鸿沟”特性,后来者不但没有望其项背的机会,甚至连对手的背影都看不到。一旦交战双方在人工智能发展上存在较大的技术“逆差”时,就会演变成智能机器对人或传统武器的不对称战争,战争就变成了超脱一切伦理约束的单方面杀戮。随着武器智能的不断提升,决策智能化将会进一步削弱甚至磨灭“人之所以为人”最基本尊严。
人工智能技术弱化了战争主体的道义性
战争法规定:冲突各方必须避免不必要的破坏并避免给对方带来不必要的伤痛,战争中的平民或非战斗员免于致命暴力。人工智能武器装备是用来执行战斗任务的,是不达目的不罢休的。但在人工智能战争中,迷惑与反迷惑、伪装与反伪装、干扰与反干扰,控制与反控制等战争手段层出不穷,变幻莫测,战争环境瞬息万变、复杂多变。人工智能武器装备系统能否像人类一样作出超越战争范畴的情感决断;能否判断出已经丧失抵抗意志的战斗者;能否觉察到自己已经成为“对方”的武器;能否区别出真正的平民和战士都是有待考证的。稍有不慎,人工智能战争成为技术优势方的单方面屠杀,且不留任何情面。
人工智能战争让人“走开”,不仅代替人的体力完成博斗,而且代表人的脑力决策战争行动。人成为战争背后的幕后操控者,不再担心人员伤亡引起的民众抗议、不用顾忌发动战争的政治、外交、经济、环境等成本,而且先敌行动、先发制人、先入为主却可以占得战争的先机,更容易让决策者们发动战争。战斗员远离屠杀和毁灭现场,不用担心自身受到严重威胁。没有面对面感受战场的血与火,就不会体验到死亡的恐惧和痛苦,在情感上就没有怜悯、同情和关爱,容易产生游戏心态,表现在行动和决策上往往会更加暴力,从而突破战争的底线和一些约定成俗的道德规范。
在人工智能战争之前的战争中,人是战争的决策者和实施者,其责任的主体也比较明确,然而人工智能武器装备系统的决策和实施者是人工智能本身,人工智能又涉及设计者、制造者、使用者。而且这个设计者、制造者、使用者不完全是代表一定阶级利益的国家或民族,又可能是个人、组织,甚至是恐怖分子或组织等非国家行为体。战争责任归属到那个阶级、那个群体、那个层级都不容易界定。责任的分散和“法不责众”的侥幸心理,反而会刺激人工智能武器装备使用强度和范围的升级,使得人工智能武器装备在选择作战目标和攻击频率时,不用考虑到可能的后果,在目标杀伤上出现最大化伤害。
综上所述,人工智能战争将带来新的伦理危机,制定人工智能技术军事运用的伦理规范迫在眉睫。虽然从战争背后的政治目的和国家利益来看,无法达成完全统一的意见,但基本的行为准则需要全人类共同遵守,那就是确保人的能动性和监督能力,始终把人类自身的安全放在首位。只有从人工智能的设计、制造、使用等各个环节进行规范,确保人工智能武器装备系统始终处于人的有效管控范围内,不越雷池半步。