竞逐的前沿:人工智能会颠覆未来战争吗
添加时间:2019-07-30 点击次数:579
当前,“智能化”成为人类社会发展的新趋势,席卷医疗、金融、法律、物流等多个领域。可以说,我们正在经历着由人工智能带来的第二次“文艺复兴”。第一次文艺复兴是神下去了,人上来了,人的理性凸显,而这一次的“文艺复兴”,则是信息迷雾走了,万物智能来了,人的智能延展。在人工智能迅猛发展的背景下,科幻电影中的人机大战、超级战士等奇异诡谲的情节与场景越来越趋向现实,人工智能的发展与应用正在逐步改写现代战争的进化轨迹。
一、智胜革命:AI 技术催生军事智能化
人工智能技术的运用,不仅在宏观层面上促进了军队武器装备、作战指挥、组织形态等方面的智能化,还从深层次推动现代战争呈现云脑主导、人机一体、自主协同、分布杀伤等特征,从而催生出军事智能化体系。
(一)设计战争
人工智能技术使设计战争成为可能,而算法就是设计战争的关键工具。可以说,设计算法就是设计战争。现代战争不仅涉及多源信息的采集和融合处理问题,更涉及有关作战任务规划的多层算法问题,因此对数据处理能力提出了巨大挑战。而算法的实质在于群体智能,是人机混合智能,相对于个体智能,它具有强集成性、大吸蓄性、高靶向性及易升级性。好的算法与优质问题、复杂场景及实践迭代直接相关,能够承载实战的庞大数据量。作战双方通过利用算法,得以模拟和预演实战,从而在多次实验中调整战法策略,将战争转变为经过设计的实验成品。当前,美军提出“算法战”概念,并组建“算法战跨功能小组”,以推动人工智能、大数据及机器学习等“战争算法”关键技术的研究。针对算法的探索,将是各国争相竞逐的重要领域,也是打开现代战争新局面的关键所在。
(二)辅助决策
以往战争中指挥员的决策,一方面来源于情报、侦察、监视等手段,另一方面受指挥员自身的经验、灵感、联想等主观因素影响,依靠人脑决策出现的“灵机一动”“神机妙算”成为战争制胜的法宝。而人机一体的决策手段则将“人脑”与“外脑”有机结合,为指挥员的决策提供了新参照,能够弥补以往军事网络信息系统的不足,从而构建起功能强大的网络信息体系,提高军队的智能化评估和辅助决策能力。自20 世纪50 年代以来,美、俄等军事大国不断发展指挥控制自动化系统, 企图增强信息优势和决策优势,如美军研发出指挥、控制、通信、计算机、情报与侦察监视系统(C4ISR),推进“网络中心战”建设,开发针对网络入侵的智能诊断信息系统。未来,人工智能技术的运用将为决策进一步赋能。如在 2015 年,DARPA 启动的“大机理”项目,就旨在开发基于大数据的智能技术,通过信息的快速提取、智能推理、综合处理等,根据作战任务自动制定作战方案,辅助指挥官实现“任务式指挥”,缩短从信息处理到决策部署的时间周期,实现指挥决策的高效性及科学性。
(三)战争控局
古往今来,战争一直是人类的噩梦,造成巨大杀伤的武器成为笼罩在人类上方的乌云,实现战争在时间、规模、目标与结局等方面的可 控是人类在战争中长久追求的目标。除运用条约、协议等政治手段之 外,以往战争中的双方难以真正实现战争可控,比如二战初期德国利用 “闪电战”策略,但后来的战争却演变成了旷日持久的消耗战,核生化武器造成的超乎预期的灾难性后果,也显示出在传统技术基础上实现战 争可控的难度。人工智能技术有利于加强战略筹划,实现“知彼知己” 的战略态势,提升作战模拟推演的有效性,对抗双方的战争设计与实验 有助于控制战争。另一方面,人工智能促进武器装备创新,智能化高技 术武器装备减少了非必要杀伤,客观上也为可控性战争提供了物质技术 条件。
二、冰山隐患:潜藏的风险与挑战
人工智能技术对撬动军事变革的作用不容小觑,但与此同时,战争中的技术、伦理、道德等一系列风险与挑战也逐步显现。由于现有实践与技术条件的限制,人工智能究竟是点燃希望的火把还是开启地狱的钥匙,仍需人们谨慎思考与探索。
(一)指挥失序
不少科幻电影已对人工智能的威胁展开了讨论。电影《机械公敌》中原本以保护人类为使命的机器人出现集体失序,对人类展开了残暴攻击,《西部世界》中机器人的内部系统不断进化,最终反叛并伤害人类。由于目前人工智能技术的发展局限,人工智能的指挥系统容易在执行程序复杂的情景中出现失序,比如美军在伊拉克战场上的军事机器人失控事件。在人机协同作战方式中,过度依赖人工智能无疑增强了指挥系统失控的风险性,这就如同把枪交付给了机器人,而当机器人不听从人类指挥时,枪口对准的对象将可能是战争中的任何一方,因此人工智能带来的人机结合作战方式必须将人置于主体地位,保证人类指挥员对系统的控制权,并建立应急预警机制与意外发生时的后台程序都极为必要。
(二)伦理失范
早在 1950 年,科幻作家阿西莫夫就提出了“机器人三大法则”,以规范机器人的行为并确保机器人相对人类的附属地位。在伦理界并未制定统一机器人伦理准则的情况下,这三大法则已逐渐成为机器人的非正式伦理规范。然而,人工智能的伦理失范风险并没有因此减弱。在以往的战争法则中,人类之间的对抗如棋局一般保持相对平衡,战争双方互相控制且对彼此的伤亡负责,而一旦加入人工智能技术,人类的伤亡是否单纯由机器负责?对机器的损伤是否需要人类负责?人类又能如何避免人工智能成为无尺度暴力的工具?由此可见,人工智能带来的伦理挑战不只是单纯的伦理法则可以解决的,更需要人类对人工智能本质的清醒深刻认识以及对人机关系的精准定位。
(三)暴力失控
人工智能应用于战争始终存在走向暴力失控的风险,智能化武器是造成安全威胁的主要来源。2017 年,包括特斯拉公司首席执行官埃隆·马斯克和谷歌人工智能公司联合创始人穆斯塔法·苏莱曼在内的116 名世界领先机器人和人工智能公司的领导人联名发布了一封公开信,公开呼吁禁止发展致命性自动化武器,并阻止高科技军备竞赛。人工智能与自动化武器结合的产物便是全自动武器系统,这意味着人工智能的加入使得战争的杀伤难度显著降低,以往战场上的战马、钢盔、刀剑、枪弹也许都不再需要,指挥官可能只需一个按钮、一句指令就能达到理想的杀伤目的。在这种情况下,全自动武器一旦投入使用,战争的杀伤效率将超乎以往,武装冲突迅速升级并扩大的可能性将难以预计。
三、对冲方略:“三位一体”综合应对
面对人工智能的风险与挑战,应当坚持“三位一体”的应对策略。当前,人工智能的军事应用浪潮已不可避免,因此无论是来自技术还是伦理的挑战,都应坚持探索与发展人工智能技术,加强人工智能的技术预测与评估,在充分试验与分析的基础上逐步推进人工智能技术的军事应用。
(一)抢占智能科技高地
当前,人工智能已成为各大国竞相争夺的科技高地,主要发达国家纷纷将人工智能提升到国家战略高度加以发展。美军已将智能化无人系统作为支撑第三次“抵消战略”的颠覆性技术领域给予重点投资。美国空军首席科学家办公室颁布的面向 2035年的《无人系统地平线》技术评估和预测报告,认为未来各类无人系统与作战平台的自动化、自主性和远程遥控性能将随着技术的进步而不断取得突破。未来,随着超大规模计算、量子计算、云计算、大数据等技术的进步,人工智能的信息处理与控制技术将获得极大发展,在现代战争中所占的技术比重将显著增加。在这样的大背景下,唯有跟上智能科技发展步伐,及时制定人工智能发展规划与战略,见之于未萌,识之于未发,才能把握战争形态变化趋势,洞悉战争形态演变规律,实现克敌制胜。
(二)探索战争伦理规约
近年来,国际人工智能界日益重视人工智能中的伦理与法律问题, 并推动相关技术标准及社会规范的研讨和制定,如 IEEE 全球人工智能与伦理倡议、阿西洛马人工智能 23 条伦理原则,我国的《新一代人工智能发展规划》也专门提出人工智能伦理与法律的“三步走”规划。在完善人工智能战争伦理规范的过程中,应确保人类对智能化武器的控制权,将人机关系纳入战争伦理的讨论维度之中,针对人工智能使用的特殊领域与战场情境建立独立的伦理评价体系,防范人类战争伦理与人工智能参与后的战争伦理相混杂,将技术、伦理与法律等控制手段配合使用、高度融合。
(三)加强国际合作对话
生命未来研究所在 2015 年人工智能国际会议上提交了一份信件, 指出:“如果主要军事力量运用了人工智能,那么全球军事竞赛将不可避免,而最终的结果就是,人工智能将成为下一个卡拉什尼科夫冲锋枪。美国运用人工智能则必然招致报复和一场人工智能大战。”值得注意的是,该信得到了 17000 多个签名和 20000 多个附议签名。人工智能风险的承受者不再只是单一国家,而是整个国际社会。无论是发展抑或遏制人工智能技术在现代战争中的应用,国际间的合作对话都必不可少。各国应加强人工智能技术与伦理层面的交流与沟通,建立起长期有效的对话机制,根据现有国际准则推进人工智能相关研究,共同应对人工智能的风险与挑战。