联合国教科文组织发布!《全球9大新兴的人工智能监管方法》

添加时间:2024-10-11 点击次数:511

2024年8月16日,联合国教科文组织(UNESCO)发布《全球9大新兴的人工智能监管方法》,报告探讨了全球立法机构正在审议的关于人工智能的不同监管方法。元战略编译报告主要内容,以期为读者介绍全球9大新兴的人工智能监管方法。




●一、全球人工智能监管格局●


目前,立法机构对监管人工智能的兴趣日益浓厚,根据斯坦福大学以人为本人工智能研究所(Stanford HAI)最近发布的一份报告,从2016年到2023年,32个国家通过了148项有关人工智能的法律。2023年,48个国家的立法机构在听证会和会议上提到了这一术语。此外,2024年7月13日,《人工智能法案》在《欧盟官方公报》上公布。


●二、新出现的人工智能监管方法●


全球人工智能治理框架由不同的利益相关者和机构安排组成,规定了如何开发和使用人工智能系统。它们包括有约束力(如条约、合同)和无约束力的文书(如指南、标准)。例如,联合国教科文组织的《人工智能伦理问题建议书》,旨在确保人工智能治理促进负责任、合乎伦理和尊重人权的人工智能系统开发和采用。此外,联合国大会最近通过了两项有助于人工智能全球治理建设的重要决议:2024年3月21日《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》决议和2024年7月1日《加强人工智能能力建设国际合作》决议。


下面介绍受人工智能治理框架影响的9种监管方法。在对人工智能进行监管时,可以将不同的方法结合起来。大多数人工智能法规都综合使用了这几种方法。


2.1 基于原则的方法


基于原则的方法为利益相关者提供了一套基本原则,为通过合乎道德、以人为本和尊重人权的程序开发和使用人工智能系统提供指导。例如联合国教科文组织的《人工智能伦理问题建议书》和联合国经济合作与发展组织(OECD)的《人工智能原则》。基于原则的方法并不对公共机构、私人组织或个人规定具体的义务或限制,也不规定不遵守的后果。法律主体可自行判断如何根据原则调整自己的行为。然而,基于原则的方法可以与其他规定了具体的义务和权利的监管方法相结合。


2.2 基于标准的方法


基于标准的方法将国家的监管权力下放给标准制定机构,这些机构可以是公共、私营或混合机构。这种方法使专业和行业组织可直接或间接参与制定有关程序和活动的技术标准。人工智能标准中心(AI Standards Hub)已经确定了近300项人工智能相关标准,这些标准涉及众多领域,如人工智能采购、人权、以人为本的设计、人工智能的发展和应用。


2.3 基于实验主义的方法


在电信和金融等不同经济部门以及数据保护、隐私法和公共采购等横向立法中,已采用灵活制定的监管方法。监管沙盒(Regulatory Sandboxes)的主要目标是为公共和私营组织创造测试新商业模式的空间。最近,这种方法也被用于人工智能监管。如欧盟的《人工智能法案》,该法案建立了人工智能监管沙盒的创建框架。此外,英国的《支持创新的人工智能监管方法》提案还包括开发沙盒和测试平台。


2.4 基于促进和扶持的方法


基于促进和扶持的方法旨在促进和营造一种环境,鼓励私营和公共部门开发和使用负责任的、符合道德和人权的人工智能系统。例如,在这方面,联合国教科文组织制定了准备情况评估方法(RAM),旨在帮助各国了解自己在为其所有公民实施人工智能方面的准备程度,并在此过程中强调需要进行哪些体制和监管变革。


2.5 基于调整现有法律的方法规则


一些地区倾向于调整特定部门的规则(如卫生、金融、教育、司法)和横向规则(如刑法、数据保护法、劳动法),而不是发布人工智能法案。这种方法的一个潜在好处是,它允许立法者根据他们对人工智能的了解,讨论并逐步改进监管框架。适应横向规则的一个例子是哥伦比亚参议院的第225/2024号法案,该法案将修改《刑法典》,以加重对人工智能系统(例如,通过深度伪造)冒名顶替罪(the crime of impersonation)的处罚。


2.6 基于信息透明度的方法


要使用这一方法,需采用透明披露的基本信息。披露信息的范围可包括人工智能系统生命周期的各个方面,包括模型是如何开发的、使用了哪些数据对其进行训练、系统如何运行、系统的性能、系统对其支持的程序有哪些影响、人们如何对根据系统输入信息做出的决定进行质疑等等。例如,欧盟《人工智能法案》第50条规定了人工智能系统提供商的透明度义务,旨在确保与自然人直接互动的人工智能系统的设计和开发方式应使相关自然人知晓他们正在与人工智能系统互动。该条款还规定了用户的义务,如果部署的人工智能系统“生成或处理构成深度伪造的图像、音频或视频内容,应披露该内容是人工生成或处理的”或“生成或处理以向公众通报公共利益事项为目的而发布的文本,应披露该文本是人工生成或处理的”。


2.7 基于风险的方法


基于风险的方法旨在根据各方对监管机构实现其目标所带来的风险的评估,确定监管行动的优先次序。这种监管方法已在不同部门实施,包括环境部门、税收部门、食品安全部门和消费者保护部门。基于风险的方法侧重于预防问题和控制与使用人工智能系统相关的风险。因此,其目的是根据不同类型的人工智能系统所造成的风险程度来调整法规的义务或要求。该方法根据风险水平,确定目标的优先次序,区分风险类型,并选择干预措施。这种监管方法的一个例子是欧盟的《人工智能法案》。该法规定了基于不同风险等级的义务:不可接受风险、高风险、系统性风险、有限风险和最低风险。与欧盟的《人工智能法案》类似,世界各国的立法机构也在讨论以风险为基础的人工智能法案。例如,巴西、智利、哥伦比亚和厄瓜多尔的人工智能法案包含了“不可接受”和“高”风险类别,完全或部分采用了属于这一类别的人工智能系统清单,并包括了一些针对高风险人工智能系统的义务。


2.8 基于权利的方法


基于权利的方法旨在确保人工智能法规保护个人的权利和自由,强调人权。这种方法假定,市场失灵不是监管的唯一理由,监管的合理性在于保护权利、促进分配公正和推进社会目标。基于权利的方法制定了强制性规则,以保证在人工智能系统的生命周期内尊重、保护和促进权利,包括人权和其他经济或社会权利。例如,《通用数据保护条例》(GDPR)中与使用自动决策系统(ADM)处理个人数据相关的规则。只要这些系统被用于处理个人数据,就会被普遍强制执行。


2.9 基于责任的方法


这种方法旨在规定强制性行为标准以刑事、行政或民事责任为后盾。在这种监管方法中,法律的力量被用来禁止某些形式的行为,要求采取某些积极行动,或规定进入某个行业的条件。例如,欧盟的《人工智能法案》规定了适用于违反该法规的处罚措施。此外,欧洲议会正在审议关于人工智能造成伤害的民事责任新规定的提案。


●三、建议●


3.1 为什么要监管?


需根据具体情况而定,同时取决于制度、法律、政治、经济、社会和文化因素。图1列出了有必要进行监管三个主要原因。



图1-进行监管的理由


3.2 何时监管?


需评估是否就为何需要监管达成共识,并将监管手段与其他政策手段进行对比,并评估采用前者的可行性。


3.3 如何监管?


一旦解决了为什么监管和何时监管的问题,就应该确定适合具体情况的人工智能监管方法组合。为此,政策制定者可考虑对其监管程序提出以下建议:


(1)人权与数字鸿沟


人工智能系统是强大的工具,可能产生巨大的效益,也可能造成严重的负面外部效应,包括社会、经济和环境外部效应。此外,这些工具的各种正面和负面影响并不一定在人群中均匀分布。事实上,由于国家内部存在数字鸿沟,开发和使用特定的人工智能系统可能会为少数有权有势的人带来巨大回报,同时也会对普通民众和边缘化人群产生重大不利影响。为此,政策制定者应讨论和探索旨在解决公共问题和应对和人权与数字鸿沟有关的挑战的监管工具。


a. 基于性别和种族的歧视可能是由人工智能造成的,例如系统在招聘人才时复制、强化和加剧了社会偏见。


b. 基于性别的暴力,例如通过制作和传播带有性暗示的虚假信息。


c. 传播错误信息,尤其是关于民主、选举和政治进程的错误信息,而生成式人工智能媒体的出现则为这种传播提供了便利。


d. 利用基于人工智能的生物识别系统进行大规模监控,可能会违反数据保护和隐私法,并助长种族迫害和歧视。


e. 公共和私营组织在使用ADM系统方面缺乏问责制。


f. 获取和使用人工智能系统的障碍,特别是对低收入家庭和残疾人而言。


g. 致命自主武器系统的扩散。


h. 环境影响和可持续性。


i. 数据的获取。


j. 语言多样性。


k. 能力建设/扫盲。


(2)灵活监管


人工智能系统和其他新兴数字技术的快速发展要求考虑灵活的监管安排。沙盒和测试平台需成为决策者可用的灵活监管的一部分,以适应技术创新的快速发展。政策制定者们可借鉴各个国家的沙盒经验。


(3)参与性和包容性强的立法程序 


政策制定者需将来自组织、政府官员以及可能受人工智能影响的个人和社区群体的不同观点纳入考量,而不是仅在“专家”的支持下起草法规。


(4)探索应对特定政策挑战的监管工具


由于人工智能是各种技术的总称,具有不同的功能和不同的后果。因此没有任何一种政策干预或监管手段能够解决所有问题。对人工智能工具一刀切的监管可能会适得其反。另一方面,宽松的监管可能会产生一种虚假的安全感。因此,监管者应致力于识别、诊断和解决与使用人工智能工具相关的具体问题和挑战,并在此基础上立法。


(5)最佳实践


找出最佳实践,不仅包括实质性实践,也包括与流程相关的实践,例如加强多方利益相关者对监管流程的参与。如联合国教科文组织出版了一份题为《多方利益相关者人工智能发展:包容性政策设计的10个组成部分》的指南,为政策制定者提供了通过吸引多方利益相关者参与来制定和实施包容性人工智能公共政策的指导。呼吁找出“最佳实践”并不意味着政策制定者在没有考虑当地环境和需求的情况下移植外国政策和程序。相反,最佳实践可以包括:


a. 确定与开发和使用人工智能系统相关的具体问题和挑战,并对其进行诊断。


b. 确定各国应建设的机构能力,以营造有利于人工智能开发和使用的环境,并执行法律。


c. 了解将受到监管的技术的生命周期。


d. 考虑从说服到强制的各种监管工具。


e. 关注实施过程中的挑战,并考虑针对具体情况的解决方案。


f. 监测法规的结果和影响,并通过灵活的方法对新的法规迭代持开放态度。


g. 创建多方利益相关者的人工智能法规讨论场所。


●四、总结●


本文介绍了人工智能监管的全球格局,并解释了9种新出现的人工智能监管方法,同时提供了来自不同国家的具体案例,以说明每种方法。并针对为何监管、何时监管、如何监管?三个问题提出了建议。上述介绍的9种人工智能监管方法并不是互相排斥的,而是可以结合在一项或多项立法中。政策制定者需根据具体国情制定监管规则,以应对本国特定的需求和挑战。


免责声明:本文转自元战略。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!