ChatGPT:人工智能的通用性发展
及其法律规制
作者:戴杕,中国社会科学院法学研究所助理研究员,法学博士。
来源:《西南政法大学学报》2023年第4期。
为塑造法学学术前沿微信公众平台的风格,微信推送的外标题系编辑根据文章理解所加,不代表作者立场。
摘 要
ChatGPT作为一种基础模型,体现出极强的通用性特点,可被用于多个领域和多种任务。这一特点在为社会提供助益的同时也引发了新的法律风险:首先,ChatGPT这种基础模型的同质化与编辑的便利性使得其极易被推广适用并与其他领域的风险叠加,造成系统性的社会风险;其次;ChatGPT产生和运行过程中的多主体性造成了“多手问题”,进而引发责任性上的困境;最后,ChatGPT的迅速推广与广泛的可及性可能引发道德观与价值观的冲突。为此,有必要将责任性作为人工智能规制的核心追求,确立各主体之间的共担责任原则,在此基础上明确人工智能创新与安全并重的规制目标,加强人工智能算法、标识等的透明化程度,健全包括社会影响评估在内的人工智能风险评估机制,促进人工智能与人类的价值融合。
关键词:ChatGPT;人工智能;通用性;风险;规制
目 次
引 言
一、ChatGPT的“通用性”特点
二、ChatGPT的通用性与问责困境
三、人工智能通用性发展的规制进路:以“共担责任”为核心
结 语
引 言
ChatGPT作为人工智能领域的一项革命性技术已经得到了社会的普遍关注。自2022年11月30日发布以来,ChatGPT在全球已经拥有了1亿名活跃用户,成为史上用户增长最快的应用程序。据报道,ChatGPT及类似的大型语言训练模型(为表述方便,以下统一以“ChatGPT”指代之)已经形成包括视频、音频、游戏、数据、搜索等多种类型应用,并可能在论文写作、法律服务、企业经营等多个领域发挥作用。不过,以上发展急剧放大了人工智能所带来的风险,也带来了诸多始料未及的后果。有报道指出,ChatGPT存在巨大的被滥用的风险,其已经成为黑客和网络钓鱼计划的工具,行为人即便在不具有高超技术的情况下,也可以利用ChatGPT创建恶意软件,从而开展极为复杂和专业的攻击行动。同时,由于ChatGPT信息获取渠道的开放性,其产生错误或有害信息的可能性也大为增加。随着ChatGPT可能越来越多地被应用于商业行为、政治决策和社会治理领域,如何确保其被正确使用,从而避免对社会造成系统性的损害,值得引起重视。
关于人工智能的一般性风险及其法律规制问题,学界已经有诸多著述,但ChatGPT相比于过去的人工智能体现出全新特点,其不仅仅是人工智能在数据规模或算力上的升级,更体现出人工智能从“专用性”向“通用性”的转变。在国外,已经有学者将这种基于海量数据训练模型的发展视为一种人工智能的范式转变。我国一些学者也指出了ChatGPT的通用性特点,例如,方东兴等认为,ChatGPT已经证明AI具有作为一种通用目的技术的潜能;刘艳红认为,良好的互动性、高度通用性与智能生成性正在加速ChatGPT类技术与人类社会形成更加刚性、高频、泛在与深刻的联结;唐林尧认为,人工智能因ChatGPT的“中枢介入”而在整体上呈现出更高的“通用性”;陈永伟则更加明确地指出,ChatGPT属于一种“通用目的技术”,具有普遍适用性、进步性以及创新孕育性等特征。与此同时,相应的规制措施也开始被提出。2023年4月11日,国家网信办发布了《生成式人工智能服务管理办法(征求意见稿)》,对提供生成式人工智能产品或服务的基本要求以及相关主体的法律责任进行了规定;同年4月28日召开的中共中央政治局会议指出,要重视通用人工智能发展,营造创新生态,重视防范风险。一些地方也采取了应对举措,例如,北京市政府办公厅印发了《北京市促进通用人工智能创新发展的若干措施》,《深圳市加快推动人工智能高质量发展高水平应用行动方案(2023—2024年)》特别强调将通用大模型作为科研攻关的重点之一。可以说,ChatGPT所代表的人工智能通用性发展趋势已经引起了学界与实务界的重视,不过当前的研究和举措仍体现出一定的不足:一方面,大部分研究和规制措施仍把重点放在对ChatGPT生成内容的合法性控制上,而缺乏对ChatGPT运行过程及其机理的关注;另一方面,大部分人对于ChatGPT风险的认识仍主要沿袭于先前关于人工智能风险的一般性认识,而未能对其所蕴含的特殊风险加以充分揭示。有鉴于此,本文试图从ChatGPT的“通用性”特点入手,在分析其内在机理的基础上,考察ChatGPT在运作过程、责任承担、可及性等方面存在的风险及其带来的新挑战,并就未来规制体系的完善提出建议。
一、ChatGPT的“通用性”特点
(一)人工智能的通用性
如前所述,ChatGPT的通用性特点已经逐渐被人们熟知。不过从既有研究和政策文件来看,人们在有关“通用性”的表述及其具体理解上仍存在一定的含混之处。在这里,有两个概念常被人们提及,分别是“通用人工智能”(artificialgeneralintelligence,AGI)与“通用目的人工智能”(generalpurposeAI)。这两个概念相互关联,但也存在一定的区别。
通用人工智能是“狭义人工智能(artificialnarrowintelligence)”的相对概念,这一组概念也被称为“强人工智能”与“弱人工智能”,前者指的是在各个方面具有和人类同样的智能,能够执行与人类相同水平、相同类型的智力任务的人工智能,具有自我意识、自主学习、自主决策能力是其核心特征,而后者只具有工具性职能,无法像强人工智能那样全面取代人类智能。从这个角度来讲,通用人工智能,或者说强人工智能,更多是取决于其与人类智能的相似性。
对“通用”的另一种理解将重点聚焦于该人工智能是否局限于特定的任务或领域。由于过去需要根据不同任务和场景设计各种机器人和相应算法的做法,已无法满足人们对智能的期望和现实中对任务和场景自适应的需求,因此这种通用性也就成为人们追求强人工智能道路上的一个必然要求。从这一角度讲,“通用目的人工智能”与通用人工智能实际上属于同义。这一概念使用的典型例子可见于欧盟立法,欧盟2021年提出的《人工智能法案》提案第7.2条中指出,人工智能系统的风险分级应考虑其“预期目的”,而技术的发展很快引发了一个问题:一些人工智能的目的可能是不特定的,这导致法案中原先的风险判断方法无法适用,进而造成了规制漏洞。因此,时任欧盟轮值主席国的斯洛文尼亚于2021年11月提出提案,建议增加针对通用目的人工智能系统的专门规定,并在提案中将通用目的人工智能系统定义为“能够执行图像与语音识别、音频视频生成、模式检测、问答、翻译等通用功能的人工智能系统”。而2022年11月的一份最新提案中也作出了类似的定义,并指出“通用目的人工智能系统可被用于多种情境,并可被整合于众多其他人工智能系统”。根据这一定义,人工智能的通用性主要强调的是其所能承担用途和目的的广泛性,而不一定代表其能力的强弱。本文对通用性的使用是在后一种意义上进行,并不涉及ChatGPT是否属于“强人工智能”的争论。
(二)ChatGPT的通用性机理
ChatGPT是一种大型语言模型(LargeLanguageModel),基于生成式预训练转换器(GenerativePre-TrainedTransformer,GPT)发展而来。在过去,尽管机器学习已经被长期用于人工智能领域的训练以处理各类复杂语言任务,但在问答或对象识别方面仍需要开发者编写能够适用于特定领域的逻辑,从而将原始数据转换为更适合机器学习方法的逻辑结构。而2010年前后,以“深度学习”为特征的深度神经网络开始在机器学习领域获得关注,更大的数据集以及显卡发展所带来的更强的计算能力带来了标准基准测试的巨大性能提升,这也带来了人工智能的“同质化”(homogenization)发展:开发者可将相同的深度神经网络架构应用于多个应用程序。与此同时,“迁移学习”(TransferLearning)理念在人工智能开发中得到更多应用,开发者通过迁移不同但相关的源领域中包含的知识,来提高目标学习者在目标领域的表现,从而减少对大量目标领域数据的依赖。除了上述发展之外,ChatGPT的通用性还尤其建立在以下技术进步之上:
一是巨型数据规模所带来的智能涌现。著名计算机学者杰弗里·辛顿(GeoffreyHinton)确立了神经网络作为人工智能系统的基础架构,并初步提出了数据集规模与识别准确性之间的关系。而后续研究进一步揭示,增加语言模型的规模可以在执行一系列下游自然语言处理(NaturalLanguageProcessing,NLP)任务上带来更好的性能和样本效率,研究者通过对包括GPT-3在内的多个语言模型的研究发现,当训练参数达到700亿至2800亿左右规模时,各模型的识别准确率将发生突然的跃升。这也带来了学者所称的“涌现”(Emergence)现象,即数据规模的量变所导致的质变。ChatGPT发布时,GPT-3的参数量已经达到1750亿的规模,而GPT-4的参数规模进一步提高,这种巨大的参数规模及训练量通常被认为是其能力突变的最主要原因,使得ChatGPT在提升识别准确性的同时,还具有了关联、规划乃至一定程度上的推理能力,为其适用的多领域性提供了前提。
二是人类反馈强化学习(ReinforcementLearningwithHumanFeedback,RLHF)技术的使用。人类反馈强化学习是机器学习领域的进一步扩展,机器学习在发展过程中存在两个主要进步方向,除了前述深度学习之外,另一个重要领域就是强化学习(ReinforcementLearning)策略,其使得机器通过与环境的互动进行学习和反复试错,并根据收到的反馈改变自己的行为,以获得给定情况下的最佳行动方案。而人类反馈强化学习进一步将人类反馈纳入学习训练过程,其在原有奖励信号之外,还能够接受来自人类训练者的反馈,从而使机器能够以类似人类之间学习专业知识的方式,以更广阔的视角和更高的效率进行学习,这种人类的直接指导也使得机器能够掌握包含着人类经验的决策要素,并从人类活动中抽象出价值作为对行为的指导,从而具有更强的适应性。
三是语言模型技术的发展。在过去,人们已经开始运用自然语言处理技术(Nat)来实现人类与计算机之间的信息交流,而近年来,使用语言模型的自监督学习(Self-supervisedlearning)技术构成了自然语言处理新的基础。ChatGPT所采纳的自回归语言模型(AutoregressiveLanguageModel)是自监督学习语言模型的一个重要分支,这种技术将单词与上下文相关联,使得模型可以通过上下文的学习进行预测,这不仅使人工智能摆脱了传统上对于数据标签的依赖,极大地提升了数据的利用效率,同时也为更为便利的人机交互提供了基础,人类可以通过简单的自然语言描述来对人工智能的任务进行反馈和引导,从而使得ChatGPT作为一种基础模型能够更好地适应下游工作。
以上情况使得ChatGPT具有较强的通用性特点,这种通用性不仅体现在能力的多样性上,更体现在其作为基础模型的广泛适用性和便利性。在预训练的基础上,ChatGPT可以通过简单的引导和数据微调而适应多种任务,服务于多个领域。同时,最新公布的GPT-4进一步向着多模态(Multimodal)的方向发展,可接收文本与图像的输入。这种多模态语言模型使得文本与视觉等真实世界感知之间的关联成为可能,为未来人工智能功能的多样化提供了更广阔的空间。
二、ChatGPT的通用性与问责困境
ChatGPT为人工智能的发展带来了诸多新的可能,但同时也蕴含着重大的法律风险。这些风险既包括技术上的,也包括伦理上的。在过去,研究者们已经就人工智能的一般性风险进行了探讨,例如,马长山指出,人工智能可能加剧人文精神的衰落,用以数据为中心的世界观取代以人为中心的世界观,并可能导致极化的社会结构;郑智航指出,人工智能可能消解人的主体性,制造“信息茧房”,挑战现代正义观。以上问题对于ChatGPT而言同样存在,并可能在一定程度上加剧。诸如在就业问题上,ChatGPT在创造能力和社交智慧上的提升,使得白领和高学历者也面临重大的失业风险,并进一步加深收入分配的不平等现象。与此同时,研究者们也已经指出了人工智能所涉及的著作权、侵权等民法问题,由于ChatGPT训练过程中对海量数据的使用及其生成性特点,这些问题在未来也必然会进一步加剧。此外,研究者们还指出ChatGPT等大型语言模型的使用可能加剧对信息真实性方面的担忧,增加社会上的偏见,或是留下未知的后门漏洞等,并试图从技术角度加以完善。不过本文将把关注重点放在ChatGPT通用性特点所引发的特殊风险上:ChatGPT这种基础模型的同质化与编辑的便利性使得其极易被推广适用并与其他领域的风险叠加,造成系统性的社会风险;然而在风险扩大的同时,ChatGPT运作过程中的机理不确定性与多主体性带来了问责上的困境。
(一)ChatGPT的基础模型性质与风险叠加
前文已经提到,ChatGPT是一种基础模型,其通过大量数据的预训练来实现智能上的“涌现”,形成相对成型的系统,并使得下游使用者可在其基础上进行反馈和编辑,进而完成不同类型的任务。这里下游使用者的编辑通常是通过微调的方式来进行,即在较小的专业数据集上对大型模型进行部分再训练,以优化其在特定任务上的性能。在很多情况下,这种基于基础模型的微调比重新开发新系统要更为高效,其不仅可以利用基础模型既有的优越性能,而且调整成本也相对较低。因此,ChatGPT自发布之后迅速受到了人们的欢迎,并在科研、代码编写等多个领域得到了广泛应用。然而,这种广泛应用体现出以下风险:
首先,ChatGPT的基础模型作用很大程度建立在同质化的基础上。一方面体现为研究方法的同质化,即绝大部分最新的语言模型都改编自少数基础模型之一,同时研究者们在建模工具上也体现出同质化的倾向;另一方面体现为跨领域模型的同质化,特别是随着多模态模型的发展,大量数据本身就包含影音、文字等多种模态,研究者们只要对某一特定领域的相关信息加以融合,就可以训练人工智能完成跨领域的任务。这种同质化为ChatGPT通用性的提升提供了助力,极大降低了下游使用者将ChatGPT用于其他任务的门槛和成本,但同时也使得基础模型既有的缺陷极易被新模型盲目继承。例如,研究者已经指出了基础模型在加剧社会歧视方面的影响,由于基础模型的建立需要数据源的支持,一旦这些数据在真实性上存在不足,或者在代表性上存在偏差,例如仅仅选取了以单一语言或单一文化为视角的数据,而将少数族裔或亚文化群体的相关数据排除在训练数据之外,那么下游模型在测试时将难以处理类似的数据,从而导致人们的刻板印象通过下游模型予以大量传播。与此同时,加害者也更容易通过调整基础模型而创建下游应用,进而产生对特定群体的攻击型内容。
其次,ChatGPT通用性所依赖的“涌现”现象的机理本身具有极高的不明确性,这给风险的探知和防范带来了进一步的困难。尽管ChatGPT的性能跃升通常被解释为与数据规模的增长有关,但这种结论更多只是来自数据规模与性能之间明显的相关性,换言之,人们现在只是发现,数据规模增长达到一定程度时会导致人工智能的智能涌现,但对于这种“涌现”究竟为何发生,尚没有令人信服的说法。这不仅导致人们无法准确预测数据输入的变化将如何影响模型的性能,同时也导致模型的实际能力很难被人们真正认知。有研究者对包括GPT-3、Chinchilla、PaLM等在内的大型语言模型涌现能力进行了梳理,并总结出了137项具体的涌现能力,但除了简单地扩大数据规模之外,是否能从其他方面来促进涌现的出现,以及如何预测涌现的发生,仍处于未知状态。还有研究者指出,语言模型很可能存在“能力过剩”(CapabilityOverhang)的问题,当前的模型已经比人类想象的更为强大,而人类可用于探索模型的技术仍不成熟。按照这一看法,当前人类对人工智能能力和风险的认知,事实上仅限于那些已经建立基准数据集并经过测试的功能,带有明显的局限性。这种风险不确定性会因ChatGPT基础模型的性质而被进一步放大。语言模型预训练范围的有限性意味着模型本身的能力无法得到充分认识,一方面,原模型所未被检测出的缺陷将很容易被下游继承和放大,另一方面,由于ChatGPT的下游任务具有开放性,开发者在对模型进行预训练时不可能穷尽所有可能的适用领域,那么当下游开发者对ChatGPT进行编辑和训练时,新的数据和任务将对ChatGPT的能力造成怎样的变化,同样难以掌控。
(二)“多手问题”(manyhandsproblem)与问责困境
在计算机领域,在系统产品是由多个主体共同完成的情况下,当系统发生故障并造成损失时,如何分配责任,是一个经典难题。有学者将其总结为“多手问题”,意指因集体行动而导致的问责难题:如果事故是由“多双手”造成的,那么就很难说谁应该受到谴责,因为其最显著和最直接的因果因素往往与其决策点不一致。这种“多手问题”会造成责任性的丧失,最终导致无人负责的结果。在过去,计算机问责的“多手问题”主要是基于以下原因:软件系统开发的机构环境、系统的分段或模块化、系统之间的交互,以及系统与硬件的交互。
通用性基础模型的产生使“多手问题”出现了新的发展。ChatGPT编辑应用的开放性带来了责任能力上的不平衡与不协调。通常而言,基础模型的开发者具有更强的技术能力,能够更好地发现模型中的风险并采取相应管理措施,而绝大多数用户并不具有相应的风险评估与管理能力,对开发者课以责任也有助于激励开发者更多关注模型的安全问题,避免因不负责而导致的负外部性;同时,从作用上讲,基础模型对于结果所发挥作用的比重也远远高于用户所进行的微调。由此看来,似乎原则上应当由基础模型的开发者承担更多的责任。但必须考虑到以下情况:一方面,模型的开发者通常无法得知,也无法预测自己的产品将被如何使用,由于现有技术的局限性,开发者只能尽可能确保模型在一定训练范围内的安全性,要求其对后续用户行为承担过重责任,极易导致能力和责任的不对等;另一方面,智能涌现机理的不明确性使得风险的真实原因很可能无法查明,即便用户只对模型进行了细微的修改,亦可能导致迥异的后果,这样一来,除非能够证明用户存在明显的滥用意图,否则很难单纯从原因力上对双方的责任进行明确划分。
以上只是从“开发者-用户”这一简单划分的角度进行的观察。事实上,人工智能所涉及的主体要更为复杂,这种复杂性来自于机器学习模型的设计、训练、评估、部署和监控的多阶段过程。一个模型的最终形成往往首先要经过问题形成,选择模型类型并设计架构,执行具体学习任务并进行动态评估调整,形成最佳模型,在实践中部署并监控其行为与预期的一致性等等若干环节。ChatGPT在主体问题上,在原有的开发、部署之外,还要加入对细分行业服务者的考量,其在ChatGPT基础上进行整合或产生新的应用,为特定领域用户提供具体服务,从而形成了法律主体关系上的新的中介,进一步增加了责任问题的复杂性。
(三)可及性与认知冲突
ChatGPT当前已经成为一种社会现象,这不仅体现在用户数量的激增上,同时还体现在各种具有极高可及性的应用的产生。语言模型与应用的广泛结合不仅能带来经济收益和卓著的声誉,大量人类用户的使用与反馈本身也形成了对模型的进一步训练,为语言模型的推广部署提供了技术上的动机。这也带来了相关应用成果的亲社会化(prosocial)倾向,包括微软、谷歌、百度等在内的多家互联网巨头都已经或开始着手将类似的语言模型与自身的搜索引擎或其他应用相整合,可以说,人类从未像今天这样密切的与人工智能产生如此直接的接触。
但人工智能与社会的广泛接触也带来了更高的认知风险。在过去,研究者已经指出,人工智能算法将潜移默化地影响着人们的认知框架和价值选择,强化人的既有观念和想法,乃至侵蚀社会的共识基础。而ChatGPT的反馈性进一步将人工智能对价值观的单向输出变为人类与人工智能的双向影响,人类在进行信息输入和编辑的同时,也影响着ChatGPT对于何为“正确”的认知。研究显示,ChatGPT所采取的人类反馈强化学习策略相比传统策略,能够更好地捕捉人类的偏好并进行模仿,尽管研究者已经尝试使其尽量符合人类的价值观和意图,但从现有研究来看,其安全性并未得到充分保障。这使得部分个人或组织可以比较轻松地引导ChatGPT产生有害或虚假信息,帮助其从事诈骗、散播仇恨等活动,或是形成某种特定的政治观点,影响民主政治进程。除了前述有意识的行动之外,海量怀有多种价值观、道德观的人类个体与ChatGPT的接触本身就对规制形成了重大挑战。人工智能究竟如何对这些存在根本性冲突的反馈、价值观和偏好进行协调,以及统一的道德理论和价值观框架是否可能泯灭文化的多元性和差异性,这些问题都没有达成共识。
三、人工智能通用性发展的规制进路:以“共担责任”为核心
以上分析说明,ChatGPT的通用性特点引发了新的风险。这些风险具有内在的关联性:技术上的不确定性是其风险的根源,而ChatGPT的通用性在放大了风险不确定性的同时,进一步带来了问责上的困境和潜在的认知冲突,问责困境贯穿ChatGPT产生和运行的始终,而认知冲突在被ChatGPT加深的同时又因其反馈性而对后者的发展形成制约。这些问题的交错使得ChatGPT的规制呈现“牵一发而动全身”的复杂局面。对此,有必要首先明确规制的核心原则,并在此基础上考虑规制的具体举措。
(一)确立通用目的人工智能规制的“共担责任”原则
合理的责任划分是ChatGPT规制的一个关键因素。当前通用性的发展使得人工智能形成了从设计开发到使用的动态反馈流程,这也意味着促进发展并不是一味地放松监管要求,而是必须明晰各流程所涉主体的责任,借以确保该流程的顺畅运行。以欧盟为例,欧盟2021年《人工智能法案》提案采取了以风险等级划分为核心的规制方案,高风险等级人工智能的提供者必须承担严格的法律义务。但由于该提案中并未涉及通用目的人工智能系统的规制,导致使系统符合法定要求的义务完全落在了下游用户身上,这将对广大中小微企业造成沉重的法律和技术负担,进而切断其使用尖端人工智能系统的渠道,最终造成扼杀创新的后果。对此,我国已经确立了人工智能治理中的“共担责任”原则,2019年发布的《新一代人工智能治理原则—发展负责任的人工智能》提出按照研发者、使用者和受用者的分类,建立人工智能问责机制。2021年的《网络安全标准实践指南—人工智能伦理安全风险防范指引》进一步从研究开发者、设计制造者、部署应用者和用户四个主体层面对各自的人工智能伦理安全风险防范责任进行了不同设计。不过,2023年最新发布的《生成式人工智能服务管理办法(征求意见稿)》又重新回到了“提供者-生产者”的二元结构,反映出在主体的责任分配问题上仍存在不明确之处。随着人工智能的通用性发展及其与社会联系的进一步加强,有必要明确树立人工智能规制中的共担责任原则。
共担责任意味着我们必须将通用目的人工智能的研发、制造、部署和使用视为一个完整的过程,从整体的高度制定规制策略。正如前文所说,人工智能的通用性特点使得其在某一个环节存在的缺陷极易向下游传导并被扩大,同时下游对人工智能的不当使用亦可能反向向上游进行传导,从而危及人工智能本身的可靠性。在传统的人工智能规制中,人为干预已经普遍被认为是必要的,其目的在于探知人工智能部署之后可能因滥用和意外所导致的事故风险,并对模型的设计与部署方式进行调整。而对于ChatGPT而言,这种干预具有更高的复杂性,其需要建立跨主体和跨上下游的干预机制,以使得下游风险发生时能够及时向上游进行回溯和问责,同时对上游采取干预措施的成效进行下游观察。规制者需要在此过程中设置多个规制节点,对各个环节可能出现的风险进行全面监测和评估,并为各个主体制定不同的规制策略,明确各自的审慎研发、说明和使用义务,同时也要致力于推进不同主体之间的交流与协作,确保下游所存在的潜在风险能够清晰地被上游所感知和应对。在这里,人工智能的部署活动处于尤为核心的位置,部署活动为人工智能与用户之间的交互提供了接口,也是各类人工智能风险发生最为频繁的环节。因此,有必要以部署活动为主要节点,构建人工智能风险监测与评估机制,以及紧急情况下的应急处理机制,实现风险的可控。同时,使用者在通用性人工智能的语境下具有高度的广泛性与多元性,在相当多的情况下,使用者相比上游主体更容易注意到人工智能应用中的问题,因此,建立有效的用户反馈机制,确保上游研发者与制造者能及时发现问题并进行调整,在人工智能的规制中同样应得到重视。最后,共担责任也意味着主体责任的有限性。人工智能风险的高度不确定性使得无论是研发者、制造者、部署者还是使用者,都不可能对相关的后果进行完全明确的预知。如果将共担责任延伸为一种无限制的连带责任,必然会影响社会的创新活力。因此,在确立共担责任原则的同时,也有必要为各方主体特别是研发和制造者设置一定的“避风港”规则,确保在风险可控的基础上推进科技创新。
(二)规制人工智能通用性发展的具体进路
1.明确创新与安全并重的规制目标
在人工智能通用性发展的规制目标上,创新与安全往往被视为存在对立关系。在过去,人工智能的从业者更多关注技术进步,而相对忽视对安全的保障,这也使得人们通常将减轻人工智能的社会危害作为规制的首要目标。但过度强调安全将给产业发展造成过重负担,从而阻碍人工智能的发展。同时,竞争这一因素也必须得到考虑,当前人工智能领域面临着巨大的竞争压力,这不仅体现为公司之间的竞争,还涉及国家之间的竞争,美国、欧盟与中国作为三个人工智能发展相对领先的经济实体,如何避免行业上的竞争劣势已经成为规制政策制定中不得不考虑的因素。特别是我国目前在光刻机、芯片、系统等多个关键领域受到较为严重制约的情况下,采取过于保守的规制策略实际上并无助于保障科技安全。为此,本文认为对人工智能通用性发展的规制应当尽可能兼顾创新与安全两项目标,一方面加大对相关产业的政策扶持力度,鼓励技术层面上的创新与产业转型升级,另一方面将安全保障的重点集中在与社会公共利益产生直接联系的应用领域,特别注重基本权利、数据安全和伦理安全的保障,从而形成分层次的人工智能规制体系。
2.提高人工智能的透明化程度
信息的不对称是人工智能领域风险的一个重要源头,特别是在通用性基础模型的开发和使用中,上下游之间无法充分获知对方的设计原理与意图,进一步增加了技术的不确定性。同时,随着人工智能性能的发展和对人类思维表达方式模仿性的增强,人工智能发布内容真实性的难以辨别,也加剧了虚假、有害信息传播的风险。提高人工智能的透明化程度,对于其风险认知和评估具有突出意义,其具体举措至少应包含以下几个方面:一是算法的透明化,算法的透明化有助于人工智能的部署者和下游使用者评估人工智能的性能和稳健性,同时也为监管者的评估与政策制定提供了重要的参考依据。二是反馈结果的透明化,基础模型运作过程中的多主体参与和反馈特点使得风险不仅来自于算法本身,更来自于各主体不断调整和反馈的过程,因此有必要同样将反馈情况纳入透明化的范围,以提高风险评估和监管的准确性。三是人工智能产生内容的区分度,在人工智能产生内容与人类产生内容的区分上,标识的添加是一个常用的区分举措,不过这也可能降低用户的体验,因此也有研究者主张将标识更改为无法从表面上识别,但可以通过特定方式进行监测的技术手段,从而在确保用户体验的同时达成内容过滤的目的。
3.健全人工智能的风险评估机制
风险评估已经成为各国人工智能规制立法当中的一项重要举措,例如,欧盟《人工智能法案》所建立的规制举措就建立在风险评级与分类的基础上。我国现有的政策文件也已经提出了提升人工智能安全评估和管控能力、加强伦理安全风险分析等多方面的要求。在风险评估的对象上,除了技术风险之外,人工智能对社会伦理、价值等方面的影响同样不容忽视。随着人工智能通用性的增强和与人类接触频次的提高,单一主体很难掌握有关人工智能社会影响的全面信息,因此有必要建立具有广泛参与性的公共监督与评估机制。这种机制的建立应建立在信息透明的基础上,加强人工智能开发者、部署者和监管者对其掌握信息和判断的公开程度,确保社会公众的知情权,同时要建立广泛的人工智能社会影响信息反馈与收集渠道,使监管者在政策制定过程中能够充分了解社会公众的价值取向和看法,提升政策制定的民主性与科学性。
4.加强人工智能的伦理建设
前文已经提到,人工智能与人类价值观和道德观具有双向的影响。在人工智能与社会已经产生广泛接触的情况下,如何在促进人工智能与人类价值融合的同时,防止彼此在价值观和道德观上产生负面影响,对于避免技术滥用和认知风险而言尤为重要。在现有的技术条件下,人类的反馈和干预仍是解决这一问题的必要手段。一方面需要在程序上要求人工智能企业加强相关训练与测试,另一方面也有必要在实体上设立一定的伦理标准作为引导。需要强调的是,价值和偏好的多元性是人类文明的一个基本现实,伦理标准的设立目的不在于形成完全统一的道德标准,而是应当以开放、包容和弥合冲突为基本方向,具体应坚持以下几个原则:一是充分立足中国国情,反映中国政治制度与社会文化的基本特点,在此基础上秉持客观中立的态度对待不同文化和价值观;二是坚持平等和个人权利保护的法律底线,在此基础之上充分尊重地区和群体之间的差异;三是鼓励信息的共享和流通,避免观点的单向强化,防止信息茧房导致信息异化与极端化。最后,在伦理标准的制定上还要秉持开放与参与的理念,为人工智能开发者、用户、社会公众以及监管者提供稳定的信息沟通与协商渠道,以确保人的意志在标准制定过程中能得到充分的反映和遵循。
结 语
“发展负责任的人工智能”是我国人工智能治理的重要原则,这种负责任不但意味着对人工智能技术加以控制的技术责任,同时也意味着在风险语境下进行合理资源分配与风险分配的责任。ChatGPT等最新人工智能的发展已经将技术与社会紧密连接,法律作为责任分配的一项重要工具,在考虑技术问题的同时也要充分考虑其社会影响。这也为人工智能法律体系的发展提出了新的问题。如何立足中国国情,为人工智能所带来的技术问题和社会问题形成系统性的治理方案,是未来人工智能法律体系建设所面临的一项重要任务,也是促进人工智能健康、安全发展的必由之路。
转自:“法学学术前沿”微信公众号
如有侵权,请联系本站删除!