如何应对人工智能给国家政治安全带来的挑战
添加时间:2019-12-19 点击次数:557
人工智能技术的蓬勃发展和广泛应用,给人类生产生活带来了极大便利,同时,也对国家主权、意识形态、执政环境、社会关系、治国理念等带来冲击,深度影响国家政治安全。政治安全是国家安全的根本,充分认清人工智能对国家政治安全的挑战,研究应对之策,有效维护国家政治安全,意义重大而深远。
人工智能如何影响政治安全
从技术影响政治安全的一般机理来看,主要体现在三个方面。第一,技术与生俱来就是政治斗争的工具,技术的进步不可避免地直接或间接服务于政治安全。“政治安全是国家安全的根本,经济、社会、网络、军事等领域安全的维系,最终都需要以政治安全为前提条件。”是以,包括技术在内的一切社会条件,首要的任务是为政治安全提供服务和保证。综观人类历史上的技术进步,往往被首先考虑用于维护国家安全特别是政治安全,尽管这些技术研发的初衷并非如此。人工智能亦然。
第二,政治领域欢迎技术“天使”的一面,同时也不得不接纳技术“魔鬼”的一面,导致政治安全与技术进步相生相克、相生相长。马克思主义认为,“技术进步直接带动机器改进,机器改进理论上可以减轻劳动强度、缩短劳动时间、增强人对自然的驾驭能力等。”先进技术进入政治领域后,有效提高了“社会控制和权力再生产”。同时,政治安全对技术进步的需求,反过来成为技术不断进步的推动力。然而技术并非是完美的政治工具。一旦技术利用不当、发生技术失控,或者技术自身缺陷所蕴含的风险爆发,政治安全可能被技术进步“反噬”。
第三,技术进步倒逼政治发展转型,给政治安全带来新课题新挑战。从历史上看,技术进步对社会结构、社会关系、社会文化等带来的变化和冲击,从来不以人的意志为转移。当火枪火炮成为主战兵器时,继续用木盾藤牌来保卫政权的行为无疑是愚蠢的,迫切需要当政者转变思想观念,寻求能够有效维护政治安全的新模式新方法。当计算机网络技术逐渐普及时,西方国家政党纷纷利用互联网进行政治宣传和选举拉票,争夺执政权。人工智能较之以往的技术,拥有前所未有的机器“主观能动性”优势,必将对政治安全理念、安全机制、安全路径等带来更大的改变。
从人工智能影响政治安全的独特机理来看,主要体现在两个方面。第一,算法和大数据将左右智能机器“认知”“判断”,继而影响政治行为体的抉择。人工智能的核心“三大件”是算法、算力和大数据。一方面,算法是否公正不偏袒、大数据是否真实完整未被删减篡改伪造污染,直接决定机器的研判结果,并影响人的判断和行为。另一方面,与传统的人口学变量的定量分析不同,大数据、云计算、机器学习等可以将数以亿计的政治行为体抽象成社会的“节点”,人工智能通过分析信息中节点的度数、介数和接近度,来揭示权力集聚规律、赢得政治威望的秘诀,这为执政安全提供了新的技术支撑和智慧渠道。
第二,人工智能技术对经济、军事、社会、网络、信息等领域的影响向政治领域传导,间接冲击政治安全。作为一项赋能性技术,人工智能正在逐渐“改写”各领域的秩序规则,给各领域带来机遇和挑战。尽管以往的技术进步也是如此,但其影响的深度和广度远远不及人工智能。而且,以往各领域安全问题“错综复杂、交织并存”的程度,也远远不及人工智能时代高。其他领域的安全问题一旦发酵,极有可能冲击政治安全。
人工智能将给政治安全带来哪些挑战
挑战之一:人工智能技术的普及应用,导致政治权力呈现出“去中心化”趋势,非国家行为体的权力扩大,给国家治理带来新难题。在传统的民族国家治理模式中,执政党或政府处于权力的中心。而在人工智能时代,数据即代表着权力。掌握数据的主体既有国家权力机构,也有个人、企业团体、社会组织等非国家行为体。“互联网数据”结构的“多节点、无中心”设计,决定着处于线上社会任何位置的主体,均不可能比其他位置的主体位势高。平等、民主的理念将成为时代主流,人人都有“麦克风”“摄像机”,处处都是“舆论中心”“事发现场”,“所有人面对所有人”,任何人在线上发布一张图片、一个视频、一段文字、或一条语音,都有可能引起连锁反应、酝酿政治事件。这一显著特征,弱化了传统的线下科层制国家管理结构和单向治理模式,个人、企业团体、社会组织等非国家行为体,在某种意义上都得以成为与政府平等的发声主体,政治话语权由政府这个传统的权力中心逐渐向社会层面弥散,呈现出明显的权力去中心化趋势,国家治理难度大大增加,政治安全风险也大大增加。
目前,这种风险已初露端倪。今年9月23日,因有人线上传播“老师辱骂原住民学生是‘猴子’”的种族歧视谣言,印尼巴布亚省爆发严重骚乱,导致26人死亡、70余人受伤。仅仅一句谣言,就引起如此轩然大波。不难想象,一旦有人围绕敏感政治议程,恶意歪曲、篡改、伪造“事实真相”,蓄意策划、组织、酝酿、推动“线上”政治运动,并混合利用大量人力和机器人进行策应,煽动不明真相的民众“线上”“线下”同时行动,将会造成多么严重的后果。更为严重的是,这也许只是未来众多错综复杂政治事件的场景之一。
挑战之二:资本的权力将随着人工智能技术和数据垄断持续扩张,进而染指国家传统权力。首先需要说明的是,这个问题实际上也是“非国家行为体权力扩大”的应有内容。但鉴于人工智能时代“资本的权力”的特殊地位作用,以及带来的挑战之重大性,有必要单列出来讨论。马克思主义认为,生产力决定生产关系,经济基础决定上层建筑。生产力的发展变化必将带来生产关系包括政治权力结构的调整。作为“第一生产力”的科学技术,其发展进步势必引起国家权力结构的调整。当人工智能技术广泛应用于经济社会各领域并引起变革时,将会推动国家治理结构与权力分配模式做出相应调整。从当前种种迹象来看,资本的权力依托技术和数据垄断持续扩张,将成为新时代国家治理结构调整的重要特征。人工智能技术研发门槛很高,依赖于大量的、长期的资本投入和技术积累,这导致社会各产业、各阶层、各人才群体间的技术研发能力、资源占有程度、社会影响力等方面极不平衡,以互联网商业巨头为代表的技术资本将占据明显优势。
另一方面,人工智能技术强大的赋能作用,以及良好的经济社会应用前景,导致资本趋之若鹜。目前,人工智能领域几乎所有重要的突破性成果都出自谷歌、微软、IBM、亚马逊等商业巨头或其投资的研究机构。而且,这些巨头企业本身就对全球核心技术、顶尖人才具有强大的虹吸效应。商业巨头实际上掌握了目前人工智能领域的大部分话语权,正在逐步形成行业垄断地位。人工智能时代,巨头企业以强大资本为后盾,逐步垄断技术、控制数据,或将不可避免地在一定程度上逐渐分享传统意义上由国家所掌控的金融、信息等重要权力,进而插手政治事务。2016年发生的“剑桥分析事件”即是例证。国家是否有能力为资本权力的扩张设定合理的边界,是未来政治安全面临的重大挑战。
挑战之三:人工智能技术及其背后的数据和算法潜移默化引导公众舆论,进而影响人的政治判断和政治选择,间接把控政治走向。在人工智能时代,数据和算法就是新的权力,这也意味着新的政治风险。近年来围绕国家大选而展开的种种政治运作显示:拥有数据和技术能够从一定程度上影响政治议程。2016年美国总统大选就是典型案例。布鲁金斯学会研究人员伊丽莎白·萨布里克称,大选期间,为影响选举结果,“俄罗斯投入的总成本仅为100万美元,却产生了高回报。俄罗斯‘互联网研究机构’仅在脸书上发布的内容,就影响了1.25亿美国人。”类似的情况,接连出现在2017年的英国大选和法国大选中。这些案例非常清晰地显示:只要拥有足够丰富的数据和准确的算法,技术企业就能够为竞争性选举施加针对性影响。当某种特定政治结果发生时,人们很难判断这是民众正常的利益诉求,还是被有目的地引导的结果。这种利用技术干涉政治的风险,在所有国家都可能出现。特别是技术水平相对落后的发展中国家,由于缺乏相应的技术积累,没有有效的方式保护数据安全,也没有足够的能力应对技术干涉,这种挑战更加严酷。
挑战之四:人工智能技术极有可能被政治敌对势力用于实施渗透、颠覆、破坏、分裂活动,危及国家政治安全。利用先进技术威胁他国政治安全,这样的例子屡见不鲜。无线电技术出现后,经常被用于窃取国家秘密,或者实施洗脑式政治宣传。比如美国之音广播电台,几十年如一日地对我实施反动宣传、进行意识形态渗透。计算机网络技术出现后,被西方国家用来进行网络窃密、网络攻击、网络勾联、传播政治谣言、意识形态渗透和进攻。人工智能时代,攻击一国人工智能系统或利用人工智能实施渗透、颠覆、破坏、分裂活动,带来的后果可能比以往的技术更为严重。2018年8月,委内瑞拉国内反对派势力勾结美国,利用无人机携带炸弹袭击该国总统马杜罗,即是牛刀小试。人工智能也正在成为恐怖势力实施暴恐活动的武器。美国学者迈克斯·泰格马克担忧,从人工智能“军备竞赛中获益最大的,并不是超级大国,而是一些较小的‘流氓国家’和非国家主体,比如恐怖分子……只要他们把目标的照片和地址上传到杀手无人机中,它就会飞到目的地,识别和杀死那个人,然后自毁,以确保没人知道谁是幕后黑手。”人工智能还可以通过自动化社会工程攻击来助长各种暴力破坏活动,比如国内外敌对势力可能会通过聊天机器人,在线上宣传极端思想、招募恐怖分子,怂恿诱导他们在线下实施暴恐暗杀活动,制造政治恐慌。
挑战之五:人工智能技术进步对主权国家参与国际竞争带来严峻挑战。人工智能是当前最尖端最前沿技术之一,其核心技术多被美欧等发达国家所掌握。这些国家利用它提升生产自动化水平,提高劳动生产率,加快制造业回迁,将冲击发展中国家的传统比较优势,使后者在国际政治经济竞争格局和全球分工中处于更加不利的地位。通过发展军事智能化,进一步扩大对发展中国家的军事优势。广大发展中国家受限于自身发展水平、技术实力、人才积累等因素,短期内难以同发达国家抗衡。国家之间一旦形成技术“代差”,综合实力差距将被进一步拉大,技术强国不断扩大竞争优势,提升其全球地位和政治影响力,甚至形成“强者愈强”“赢者通吃”的局面。在这种情况下,技术强国对发展中国家实施政治讹诈和技术突袭的可能性严重存在,后者在国际战略博弈中很难翻盘。正如法国国际问题专家高大伟(David Gosset)所讲,“人工智能是人类制造分裂的数码鸿沟。一旦你有高科技,能力就会非常强;没有,你完全就没有什么机会。”
政治安全事关我党生死存亡和国家长治久安,也与民族复兴和人民福祉休戚相关。必须高度重视人工智能带来的政治安全挑战,对症下药,多措并举,综合施策。
针对“权力去中心化”趋势,转变执政理念,探索国家治理新模式。人工智能技术具有高度专业性和复杂性,企业、科研机构常常处于技术创新前沿,而国家政府则往往远离技术前沿,对技术的感知相对滞后,对技术的安全风险准备不足。为此,要强化风险意识,成立人工智能安全咨询专家组,密切跟踪技术和应用的发展,运用系统思维,定期研判人工智能可能带来的政治风险,提高风险识别、防范和处置能力。要创新技术治理模式,积极适应“权力去中心化”趋势,构建政府主导,企业、研究机构、技术专家、公众等多方参与的人工智能治理体系。“治理”不同于“管理”,管理是政府单向的行为过程,治理则是一种开放的、多个利益攸关方参与的互动过程。通过多方互动,政府既可以掌握技术和应用的前沿动态和发展趋势,又有助于企业、研究机构、专家、民众更好地了解政府关切,共商制定风险管控机制,推进治理工作的科学化民主化。
针对技术短板弱项,实施重点突破,努力跻身世界一流,争取掌握未来国际竞争战略主动权。当前,我国在人工智能技术领域面临的最重大的安全威胁,是关键核心技术受制于人。从现在起到2030年,是我国抢抓机遇的关键十年。举全国之力,集全民之智,戮力建设自主创新体系。加强政策引导和资金支持,打造一批国家级人工智能研发平台。加强基础性、原创性、前瞻性技术研发,从智能芯片、基础算法、关键部件、高精度传感器入手,加快核心技术突破。技术创新的关键在人才,要在加强国内人才培养的同时,拿出具有吸引力的政策措施,全球招贤纳士,聚天下英才而用之。
针对技术应用风险,严格人工智能标准制定和行业监管,确保人工智能良性发展。没有规矩,不成方圆。要随着技术的发展变化,在《人工智能标准化白皮书》(2018 版)的基础上,进一步修订完善相关技术标准。制定完善人工智能相关法律法规和伦理道德框架,对相关的民事与刑事责任确认、隐私和产权保护、机器伦理等问题予以明确,理顺设计者、使用者、监管者之间的权责关系。建立健全人工智能监管体系,形成设计问责和应用监督并重的双层监管结构,实现对算法设计、产品开发、成果应用的全过程监管,积极促进行业自律,加大对数据滥用、算法陷阱、侵犯隐私、违背道德伦理、越过权力边界等不良行为的惩戒力度。
针对外部安全风险,加强军事能力建设,为维护国家政治安全提供力量保证。要立足我军实际,统筹推进机械化、信息化、智能化复合发展,成体系加强战斗力建设。要保持战略定力和战略清醒,既高度重视、加快发展、加紧赶超,又要清醒地看到美国利用“星球大战计划”引诱拖垮前苏联的殷鉴不远,谨防掉入对手构设的“战略陷阱”。要保持强大战略自信,找准对手的“短板”和“死穴”,运用非对称战略制衡思维,坚持“你打你的,我打我的”,创新发展智能化条件人民战争的战略战术。要积极研究探索智能化战争理论,加快推进现代武器装备体系和人才队伍建设,强化智能化条件下部队训练演练,不断提升我军新时代军事斗争准备水平,为军事上决战决胜、政治上安全稳定提供坚强力量保证。
针对战略互疑,加强国际交流合作,共同制定人工智能技术国际行为准则。近年来,国内外学术界、产业界围绕人工智能主题的交流合作逐渐增多,然而主要大国尚未在双边或多边层面展开真诚、深入的对话。甚至有人把中美在人工智能等高科技领域的竞争比作另一场“星球大战”。某些大国无端猜忌别人,并且人为地对相关技术、产品、供应链等设置技术壁垒。
随着全球化的深入发展和技术突破传统的国家疆界,一国的安全早已与其他国家紧密相联,人工智能发展过程中出现的问题,只有各国共同携起手来才能解决。固步自封、相互掣肘从短期看尚可以找到掩耳盗铃、自我欣赏的快感,从长远看没有出路。我国要展现大国姿态,发挥自身优势,积极探索与技术强国开展务实交流合作的可行性路径,互相取长补短,努力增信释疑,避免恶性竞争,共同应对难题。要加大对国外优质创新企业的风险投资与合作并购,鼓励国内实体大力引进高级专业技术人才、合作创办研究机构。要积极主动参与人工智能国际议题设置,共同应对安全、伦理、法律等诸多挑战。抓住人工智能国际准则和配套法规刚刚起步之机,积极参与规则制定,及时宣示我国主张,努力掌握规则制定话语权和国际交往主动权。