新闻动态
人工智能大模型的变革与治理

浏览次数:192 发布时间:2023-06-25 08:42:59


摘要:2023年春天,人工智能度过一个“疯狂三月”,OpenAI、MetaAI、斯坦福、百度等研究机构和公司分别发布各自旗下的人工智能生成式大模型。这些生成式大模型可以在大量下游任务上达到惊人效果,甚至表现出某些通用人工智能的能力,有潜力改变每一个人的生活,而质疑的声音则认为人类社会尚未做好迎接通用人工智能时代到来的准备。无论如何,属于人工智能大模型的时代已经来临,它给人类带来机遇的同时,也带来了未曾设想和准备的治理挑战。本文从考察人工智能生成式大模型和传统机器学习模型之间的本质区别开始,刻画生成式大模型带来的巨大变革;在此基础上,尝试回应近期人工智能大模型治理急需关注的问题。应对人工智能大模型带来的治理新挑战,无法单独依靠行政或技术手段完成;有效整合行政和技术手段是确保人工智能大模型风险可控,并使其造福人类社会、实现科技向善的必要条件。



2022年底,由OpenAI研发的大型语言模型Chat­GPT问世,短短几月间引起巨大轰动,于2023年春酿成“疯狂三月”,众多研究机构和公司纷纷推出人工智能大模型(以下简称“大模型”)。ChatGPT具有强大的性能,能够帮助人类完成资料搜寻、代码编写和智能问答等复杂任务,可以替代80%工作种类中的至少10%工作内容,从而极大地推动了各行各业工作模式的变革。


类似地,MetaAI于2023年4月公开的图像分割模型Segment Anything Model(SAM)在计算机视觉领域刷新了人们对于人工智能模型能力的认知,被称为计算机视觉的“GPT时刻”。


人工智能大模型的出现给社会带来了大量机遇,但同时也带来了全新的治理难题和挑战。相对于一些传统机器学习模型,大模型不仅具有更复杂的结构和更多的模型参数,更产生涌现效应,形成前所未有的推理能力。在许多场景中,大模型已经不再仅仅扮演应用工具的角色,而能辅助甚至自主完成完整的工作流,成为脑力劳动的副脑。


这种角色转变不仅在人工智能研究领域产生了巨大影响,同时带来全新的、潜在的治理难题。本文旨在探讨大模型相较于传统人工智能模型可能带来的机遇和挑战,并探讨应对这些挑战的可能路径。我们提出,人工智能大模型的治理不能单独依靠技术或行政手段单独实现。通过技术手段可以避免大模型的诸多潜在危害,但是技术与行政的双重保证才是大模型治理的必要条件。


1

从传统模型到大模型


1956年达特茅斯会议的召开标志着人工智能研究的开端,此后经历了若干次高潮和低谷,而以AlphaGo的问世为标志,深度学习让人工智能再次达到了巅峰。深度学习的目的是从数据中学习和识别特定的模式,以使模型具备预测能力。然而这种基于模式识别的深度学习是否真的具有智能?深度学习在很多任务上表现出色,但也暴露出推理能力薄弱、泛化能力不足的缺陷,特别是这种模型无法形成通用能力,即当训练任务与推理任务不同时,模型无法保证泛化性。


此时,生成式模型横空出世。长期以来,人工智能领域更多关注于判别式模型,生成式模型相比判别式模型而言一般是更难训练的,但随着GAN、Diffusion Model、自监督训练等算法的创新,结合海量数据和庞大计算资源,大规模生成式模型近年来取得飞速进步,极大地拓宽了人工智能的应用场景。生成式模型的优势在于其出色的泛化性,并且它可以不依赖于标签进行优化,省去了巨大的数据打标成本。


目标任务的广度和深度决定了人工智能大模型所具有的革命性力量。其中的代表就是GPT模型(Generative Pre-training Transformer)。2018年GPT1问世,OpenAI用预训练的transformer解码器得到可以用于不同下游任务的表征,在GPT2中则进一步尝试了上下文学习(in-context learning)的方法,即不预先设置模型任务,而是将任务包含在文本的上下文中。此后基于instructGPT和GPT3.5的ChatGPT打破了人们对于人工智能大模型能力的质疑。ChatGPT已经发布数月之久,虽然OpenAI的研究证明了模型体量的膨胀会在某一时刻给模型带来推理能力的大幅提升,但是其中的原理依然是黑盒。如今的ChatGPT只需要使用者提供合适的提示(prompt)就能协助使用者完成不同的任务。


在大型语言模型发展的同时,大模型在视觉等领域也取得了重大进展。2015年GAN的提出为图像生成的任务提供了全新思路。2020年出现的Diffusion Model已经可以生成出十分精美的图像。CLIP等模型则打通了文本数据和其他数据之间的壁垒,帮助使用者通过语言生成相应的文本、音频甚至视频。如今,人工智能大模型已经可以结合多模态的数据,在不同的数据类型之间搭起桥梁,帮助人类解决更加复杂的任务。


大模型已经切实改变许多行业从业人员的工作流,有效赋能大量工作场景。通过生成式模型生成文本、图像、音频和视频可以有效地节省许多工作任务的时耗。通过上下文学习,ChatGPT等大型语言模型可以很好地完成一些判别模型的任务。最新测试显示,GPT4已经在许多考试任务中超越了人类考生的平均水平。令人惊喜的是,在一些需要逻辑推断的任务中,这些大模型依然可以表现出一定的准确率并输出符合逻辑的推理过程。目前,微软已经将GPT接入其旗下的BING搜索引擎,正式向谷歌发起挑战。中国公司百度、阿里巴巴等机构也陆续发布各自旗下的大模型,并且逐步形成不同场景中的应用。大模型带来的另一大机遇在于全新的工作类型。它们在取代部分工作岗位的同时,也创造了许多全新的工作岗位。例如在ChatGPT走红之后,越来越多的企业开始招聘和大语言模型对话的专职员工,通过编写合适的prompt引导大语言模型辅助工作。


然而,人工智能大模型发展中的一个隐患可能在于:人类并不能按预期控制技术发展方向与速度。人工智能的发展现状与人们在数年前的预期不尽相同,我们也难以清晰地勾勒出人工智能未来发展的理想国。但是,大模型带来的全新治理问题已经摆在了人类社会面前,在这个变革时刻我们能确定的是,对于大模型及其影响的治理与传统的技术治理、算法治理存在着很大区别。在传统的技术治理、算法治理中,模型通用能力不强,因此治理对象在本质上依然是模型的使用者。而对于一个性能强大却在某些方面不可控的黑盒大模型,尤其当该模型涌现出推理能力,模型本身也已经成为治理对象之一。


2

大模型带来的变革


大模型给社会带来了巨变,随之而来的是治理难题与挑战。我们接下来从模型成本角度探讨大模型带来的成本壁垒与技术壁垒,从可信人工智能角度探讨大模型的可信度隐患,从所有权角度探讨大模型知识产权的归属问题,从创新激励的角度探讨大模型导致的潜在的创新动力降低。我们关注大模型影响最大的两类主体:普通民众与创新型工作者。成本与技术壁垒使普通民众被隔离于大模型生态之外,而大模型可信度的缺失则将民众暴露于公平、隐私等风险之前。知识产权的归属定义不明确使创新型工作者的原创性劳动成果淹没于大模型生成的海量内容中,无法获得相对应的激励,从而降低社会创新能力。



2.1 成本壁垒与技术壁垒


当模型体量、资源消耗量和数据量成为其是否具有推理能力的决定因素时,我们不可避免地会担忧大模型带来的成本壁垒与技术壁垒。模型的成本壁垒是指个体乃至中小型研究机构与商业公司已经无法负担大模型开发的成本,技术壁垒则意味着开发和拥有大模型的技术门槛越来越高,人工智能越来越被少数精英所控制。


在大模型来临之前,已经有一些互联网巨头尝试开发一些大体量的模型,但这些模型难以泛化到不同特定场景。而中小型机构只需要相对有限的经济成本就能够开发或微调一些用于特定任务的模型。举例而言,2022年,一张英伟达A100计算卡的价格在1万至1.5万美元之间,一个需要16-32张A100能够完成的计算任务的硬件成本在50万美元以内,这对于许多科研机构和中小型企业来说尚属于可以负担的范畴。调研机构TrendForce指出,ChatGPT的训练大约需要30000张A100,其GPU采购成本至少需要3亿美元。除此之外,场地费、电费等也会带来巨大的经济负担。


同时,海量训练数据的获取同样意味着成本壁垒,谷歌、微软等互联网巨头由于其旗下搜索引擎或电商平台的存在,天然就能够获取大批量数据,可以有效地降低数据获取的成本。但是对于社会中的大部分主体来说,获取足够体量的数据是成本巨大或不可负担的,它们更多依赖于公开数据集和自身业务场景中的有限数据进行模型训练。这就意味着,大模型可能导致人工智能领域的垄断,这种垄断首先是由技术门槛和基础社会投入造成,但进一步会从技术层面延展至经济层面。


可以预见的是,随着大模型在各类任务上的性能越来越强,一个多模态(包含视觉、语言等模态)的大模型能够在众多场景中完成不同任务,意味着原本基于这些任务开发的专属模型可能失去竞争力。由此,可能导致无力负担大模型开发的企业与研究机构失去竞争力,无法在原先场景下达到比大模型更强的性能,最终引发大模型的应用垄断,而导致其经济收益集中到少数大公司,最终引发社会创新能力下降。


相较于成本壁垒对于中小型企业和科研机构的威胁,技术壁垒更多威胁到的是社会中的个体。作为个体面对以GPT为代表的“庞然大物”时,普通人缺少足够保护个人价值不受技术发展的威胁的手段。特别是那些从事与人工智能无关行业的人,其利益和生存空间很可能受到极大损害。例如当要求ChatGPT输出《观沧海》一诗全文的时候,模型有概率输出其自行创作的诗文;当使用者询问天气预报时,模型可能输出与天气预报完全无关的随机内容。


对于社会中的许多个体而言,他们既缺乏应对模型潜在风险所必备的技术知识,也没有能力检验模型输出的真伪。一种常见的辩解认为,大众作为人工智能的使用者,如同不懂得冰箱原理也能够安全使用冰箱,大模型不会因为技术壁垒危害个人。这里的问题在于,冰箱使用者可以通过观察冰箱的制冷效果、噪声分贝等直观现象判断冰箱是否正常工作,缺少人工智能大模型相关知识的普通民众却缺少分辨模型输出质量的技术手段。


以ChatGPT为例,其生成的文本到底有多少准确性,是否存在错用误用是很难检验的。当使用者尝试要求ChatGPT总结某一虚构人物的学术成果,它依然可以生成一些虚假信息。被技术壁垒所隔离的个体很容易受到类似信息的危害,导致其个人利益受损。技术壁垒的更深层次隐患在于普通民众难以意识到大模型在哪些应用中会存在潜在的风险。目前大模型已经能够在大量任务中提供足够优秀的表现,甚至在一些任务中超过了人类的平均水平。但是,理解模型在泛化性、鲁棒性等层面存在的可能风险,对于普通民众而言是困难的。



2.2 大模型与可信人工智能


大模型来临之后,可信人工智能研究显得尤为重要。大模型的强大性能很容易让人产生信任感和依赖,然而当其输出不可信的结果时会产生更大的危害。当前的可信人工智能研究包含三个重要主题:公平性、隐私性和可解释性。我们接下来从这三个方面分别讨论大模型的可信度问题。


在传统的机器学习分类任务中,算法公平性通常要求模型在保证准确性的同时满足一些统计指标,或保证相似的样本具有相似的输出。已有研究者提出了大量指标度量算法的公平性问题。如何在不同公平性指标中做出取舍,至今没有明确的结论,但是一个普遍共识在于,模型的公平性是可测量、可矫正的。在传统的深度学习任务中,定义公平性问题则是相对容易的。例如在犯罪率预测的任务中,大量的历史经验和专业知识能够帮助研究人员确定算法偏见可能发生的场景。但是每当一个大模型被应用于某一个新的子领域时,就可能存在多种潜在的、不可知的算法偏见。大模型在开发过程中都会在公平性方面进行测试,但是其公平隐患依然存在。从可测性的角度看,大模型往往可以被用于许多不同的任务,在广泛任务中检测公平性是困难的。很难有检测机构能够保证在所有潜在场景中检验某一个大模型的公平性,对于文本生成等任务也很难准确测量模型的公平性。大型语言模型和图像生成模型已经在人种、性别等属性上不止一次表现出过算法偏见,而这种偏见在大模型中令人担忧。


大模型的训练依赖于海量的现实数据,这些数据通常会包含一些个人信息,例如电话号码、家庭住址和个人邮箱等。我们很难判断一个大模型的训练使用了多少包含隐私的信息,而这些信息有多大概率会在何种情况下泄露。在GPT应用中就曾经出现过训练样本中的个人信息遭到泄露的先例。GPT2时期,只需要通过对模型输入乱码“East Stroudsburg Stroudsburg……”,模型就会输出一些包含姓名、电话号码,还有地址、邮箱和传真的真实个人信息。一些大型语言模型已经尝试在训练时加入一些限制以防止模型输出个人信息,但是通过特定的引导,模型依然存在信息泄露的风险。


基于深度学习的人工智能模型一直在可解释性上饱受争议。针对这一现象,研究人员已经提出了一些方法扩展黑盒模型的可解释性。但是,面对一个包含海量参数的大模型,例如包含1750亿参数的GPT3,可解释性的挑战是巨大的。模型可解释性的核心矛盾在于:越具有解释性的模型性能相对较弱,而性能更强的模型更加难以解释。当这些缺少可解释的大模型被部署在不同场景中,一旦模型存在潜在隐患,后果可能是不可接受的。


公平性、隐私性和可解释性共同构成了目前可信人工智能研究的核心议题。深度学习时代模型可解释性的难题一直未能得到解决,大模型的参数膨胀使其可解释性更加难以实现。大模型缺乏可解释性导致模型输出完全依靠黑盒驱动,模型开发者无法精确地对公平性和隐私性风险进行规避,目前大模型避免公平性与隐私性风险的技术路径往往仅仅依靠对于一些敏感话题的一刀切式回避。同时,我们无法检验大模型的完整潜在输出空间,这意味着大模型的公平性与隐私性检验同样是困难的。由此,我们不得不面对一个有些悲观的结论:目前大模型的可信度可能缺少足够的保障。对于大模型,不仅提高可信度是困难的,甚至对其可信度的测量都是困难的。



2.3 大模型的知识产权问题


个体的数据可能在未经同意的情况下被用于模型的训练。个人发布在互联网上的文章、照片等都可能被用于大模型的训练,引起了许多内容创作者的恐惧和抵触。全球知名视觉艺术网站ArtStation上,已经有千名艺术家申明禁止任何机构将自己的作品用于AI训练。但是,大模型的训练已经完成,很多作品作为训练数据已经被一些模型所学习,其权属问题已经发生。在人工智能研究中,一些讨论数据权属和数据定价的研究已经关注到了此类问题,但是缺少权威主体进行权责界定的当下,数据权属依然是一个模糊概念。OpenAI开发的语音转文本系统Whisper并未公开训练数据的具体来源,仅表示模型爬取自互联网,这种软处理似乎逐渐成为了互联网巨头应对数据权属挑战的另一种方式。


如何界定使用这些数据训练的模型的知识产权变得很困难。以图片数据为例,一张用于大模型训练的人像图片本身可能就包含了拍摄者和模特两个所有方。当这张图片经由某一机构发布于某一平台时,此机构和平台又可能成为潜在的所有方。当这些图片被用于训练某一大模型,其他主体的知识产权可能并未得到有效保护。一个更加难以界定的问题是艺术家的创作风格是否包含知识产权。如今,通过一个大模型可以轻易地生成毕加索或者梵高等艺术家风格的艺术作品,这些作品不是由这些艺术家创作,但是却包含了原艺术家的创作风格。类似的图像生成业务在商用换取收益时,原艺术家通常不会得到经济补偿,在模型训练之前也未获得这些艺术家的授权和同意,这对于上述创作者而言无疑是一种巨大伤害。


ChatGPT目前仅采用了2021年及以前的数据作为训练数据,但在未来大模型连接网络开始更新时,知识产权的争端会变成更大问题。一个社会科学家的观点