投稿问答最小化  关闭

万维书刊APP下载

首发推荐 | 生成式人工智能社会实验的伦理问题及治理

2024/1/8 15:46:39  阅读:87 发布者:

 生成式人工智能社会实验的伦理问题及治理

  

2022 年末以来,以 ChatGPT 为代表的生成式人工智能(AIGC)驱动了大语言模型(LLM)从“判别范式的弱人工智能”转向“生成范式的强人工智能”的范式变革,并将“强拟人化”特性介入了人工智能社会实验场景。这种特性源于实验者长期以反映真实世界对话场景的大型文本数据语料库来训练 LLM 的结果,所具有的类人心智功能表现出涌现、创制、泛化等特点并衍生了“不诚实拟人化”的新伦理特征,这些又反过来对 AIGC 社会实验造成了负面影响。本文通过揭示并解析该实验场景内的拟人化认知倾向滥用、理智德性消减、多元化偏见风险叠加与“实验者效应”非道德强化等拟人化伦理问题,提出应基于“制度-原则-策略-引导”四维视角,来前瞻性构建 AIGC 社会实验的伦理治理机制。

关键词

生成式人工智能;社会实验;强拟人化;拟人化伦理

作者简介

浙江大学马克思主义学院

浙江大学马克思主义理论创新与传播研究中心

李正风

清华大学社会科学学院

中国科学院学部-清华大学科学与社会协同发展研究中心

在人工智能技术推动人类社会数字化、智能化转型的背景下,我国政府率先倡导“实验主义治理理念”来践行“先行先试”的人工智能创新发展路径,以此研判人工智能的潜在应用风险,即所谓的“人工智能社会实验”。这种社会实验的目的之一是要消解人工智能的伦理困境,不过前提是该项实验本身不存在伦理争议,才可能向社会引入负责任的人工智能产品与服务。2022 11 月至今,以ChatGPTGPT-4DALL-EClaude 2 等为代表的生成式人工智能(Generative AI,以下简称“AIGC”)横空出世,展现出脱离人类干预的类人心智能力,也使人工智能社会实验的伦理治理对象从“判别范式的弱人工智能”转向“生成范式的强人工智能”。然而,AIGC“强拟人化”(Powerful Anthropomorphism)特性及其衍生的新伦理特征将拟人化伦理问题介入了人工智能社会实验场景,这对“人工智能社会实验伦理”的规约提出了新的要求,亟待构建新的伦理治理机制。

AIGC“强拟人化”及其特征

2022 11 月以来,以 ChatGPT 为代表的一系列 AIGC 产品与服务给社会集体的普遍印象就是更具“人性”,趋向一种“类人型”人工智能,“即按照类似于人类的自然语言表达方式,模仿人类的思维模式和行为习惯,从而让人产生某种亲近感,方便应用于日常社交领域。”同时,AIGC 又是通用人工智能(Artificial General IntelligenceAGI)的代表,区别于先前判别式的专用人工智能(Special-purpose AISAI)。专用人工智能是在限定场景内、充分条件下解决特定(一到两个)问题,通用人工智能则是在非限定场景、非充分条件下解决非特定的问题,“通用”指代的是类人感知力、适应力、行动力、整合力,是能够跨应用场景处理任务并自主“涌现”自适应性的技术-生态系统。

(一)AIGC“强拟人化”的技术认知特征

人工智能作为技术发明是对人类心智的模拟与延展,而对人类生物特性本质的复刻,理所当然使得人工智能超越先前农耕、工业、电器时代的通用技术,成为真正意义上的类人化技术。从技术维度来讲,所谓强、弱人工智能的根本性差异就在于机器智能体所展现出的“拟人化”程度,这反应了人工智能创新发展的发达程度,也是人类社会一直以来防范人工智能社会风险以及阐释智能机器作为道德与法律责任主体何以可能的重要依据。比如,在人工智能法律人格问题上,就有学者以强、弱阶段来划分,提出可以根据实际情况来赋予强人工智能法律人格。判别式人工智能也会被提到拟人化特性,但这并非该模型的重点,底层技术架构是根据函数映射关系做出分类或预测,在实践中表现出无意识的镜像反应特点,因此人类先前对人工智能技术特点的普遍描述是效率高、精度准、决策能力强等,但在大语言模型出来后,这些描述反而变少了。那么,以“强 VS 弱拟人化”作为差异性指标来进行区分,AIGC 无疑进阶到了“强拟人化”的门槛(尚不具备自我意识)。AIGC 是由人工智能和自然语言处理(NLP)的快速迭代而涌现的大语言模型(LLM),依赖深度学习技术和神经网络来分析、理解现有数据中的模式和结构,进而创造与人类智识活动所生成的相似内容。在这里,AIGC 之强拟人化的首要特性就是“生成”。基于实践建构的知识论视野,智识创制是基于认知机制与资源环境的交互过程。以 AIGC 的代表 ChatGPT 为例,生成式预训练转换器(Generative Pre-trained Transformer)与反馈强化学习技术(Reinforcement Learning from Human Feedback)是两项突破性的认知机制,克服了先前自然语言处理的序列到序列模型(递归神经网络、卷积神经网络)的一些限制,具备了类似人类捕获关键信息与权衡高收益行为的能力。从技术层面来反思 ChatGPT 类人智慧的“生成”特点,可以暂列以下基础性认知机制:

(1)文化智力与多语言能力:ChatGPT 具备复杂差异性文化背景下的适应与有效互动能力,消解语言层面造成的沟通障碍。(2)社会智力:尽管 ChatGPT 还无法充分确证事实知识,但其基本的社会认知力与社会行动力在多跨场景应用中体现出通用智慧。(3)自主发明:ChatGPT 生成内容的产权问题尚未定论,也缺乏人类思想意识的独特性,但其具备自主生成内容的能力已成客观事实,对其产生的文本、

、视频、音频等内容的真实性、合法性也已成为立法目标。(4)微调:ChatGPT 可以针对特定任务和应用进行微调,以满足不同学科研究应用的独特需求。(5)处理情绪:ChatGPT 可以发展识别和反应情绪的能力,导致更多的有同理心和个性化的互动。

(二)AIGC“强拟人化”的类人心智特征

从理论维度来审视,拟人化(anthropomorphism)是人类与非人类实体实现交互的基础,以此使得关于社交行为、社会规范和道德判断的研究成为可能。在英语文学修辞语境中,Anthropomorphism Personification 有着显著区别,因为后者侧重对抽象概念而非实体的拟人化。在黑格尔式的主奴辩证法中,拟人化会引起主客体关系的紧密纠缠与交互,当他者作为一种彰显主体自我意识的中介,就会发生必然的动态转换过程,以及反思性的联结,进而在主体与他者之间就会建构起各种关系。在这里,AIGC 拟人化特性之所以是“强拟人化”,源于该模型范式的内在性呈现出向“类人心智”的涌现趋势,从整体上包括表征形式与内在机制都在追求更接近类人的经验表达方式和感知能力,既是手段也是目的。基于先前判别范式的交互系统,像社交机器人、“微软小冰”、情感机器人等,被诟病为“有能无智”,源于无法参与对周边环境与人类交互的感知过程。因此,判断 AIGC 之“强拟人化”的另一个显著特性要体现在是否可能对他者(尤其是人类)产生影响?前提条件就是AIGC是否可能具备“心智理论”(Theory of Mind,以下简称 ToM)?当前神经、心理科学领域普遍将源于上世纪 80 年代社交认知的 ToM 作为分析大语言模型心智化的理论视角。ToM 可以被概述为一种基于个体自我认知阐释、预测他者所思所想(目标、情绪、信念等)的能力。当代心智哲学又将 ToM 框架化为心智化能力与共情能力,以此为基础兴起了移植人类心理测试工具探索大语言模型心智问题的实证研究。斯坦福大学计算心理学家科辛斯基(Michal Kosinski)于 2023 4 月上传预印本论文《心智理论可能会自发涌现于大型语言模型》,指出“类似心智理论的能力(迄今为止被认为是人类独有的)可能会被作为大语言模型提高语言技能的副产品而自发涌现”。科辛斯基运用了 40 个经典的“错误信念任务”(False-belief Tasks)对多个版本的语言模型进行 ToM 实验,发现 2020 年前的语言模型不具备解决 ToM 任务的能力,而从 2020 5 月出现的第一代 GPT-3 2023 3 月开发的 GPT-4,成功解决任务的比例一路从 40%上涨到了 95%。另一项关于 AIGC 心智问题的权威实验来自约翰霍普金斯大学,莫哈达姆(Shima Moghaddam)等人在情境学习对语言模型复杂推理能力的影响实验中,增加了两步思维链与逐步思维的提示,结果发现大语言模型的 ToM 准确性得到了大幅提升。尽管 ToM 不等同于自我意识,但绝不能低估 AIGC 已有的类心智化表现,在反复的生成式对话以及习得大语料库嵌入的人类信念、目标、心理状态等过程中,无疑将对人类的认知信念、共情、道德判断产生影响。来自认知科学的实证研究表明,“对他者心灵的感知,无论是对人类还是人工物,都会对主体的社会行为产生重要影响。”

(三)AIGC“强拟人化”的社会伦理特征

在分析 AIGC“强拟人化”对人工智能社会实验构成的伦理挑战前,我们先来考察 AIGC“强拟人化”在生活世界中的主要伦理特征。人类集体赋予他者拟人化的初衷是要非人类实体发挥以人类中心主义为导向的社会功能,在本体论上也秉持了主客体二分的立场。由此,埃普利(Nicholas Epley)将人类赋予他者拟人化的动机归纳为诱发主体知识(elicited agent knowledge)、效能动机(affectance motivation)、社会动机(sociality motivation)。诱发主体知识是以人类主体认知作为高阶知识来诠释他者;效能动机与社会动机都是将他者作为中介来满足人类与外界的交互需求。在这里,非人类实体的本体论意蕴与人类所赋予的拟人化特征毫不相关。传统人工智能之拟人化囿于技术水平首先聚焦的是“外形拟人化”与“举止拟人化”,是针对单一应用场景而设计的拟人功能,并且最常被讨论的问题恰恰是一种心理学上的“恐怖谷效应”(Uncanny Valley),但不会引发很大规模的社会伦理风险,像人机交互之间的诚实问题是在大语言模型时代变得愈发突出,这在过去仅仅是在社交机器人及其与人类交互情境下才得到讨论,实际受众有限。然而,AIGC 强拟人化在人机交互层面表现为对所有自然语言处理领域的介入,跨越了传统拟人化的二元论立场,类似于一种“交往理性拟人化”,除却常见的拟人化伦理挑战之外,还会出现一种“不诚实拟人化”(Dishonest Anthropomorphism)的新伦理特征。卡明斯基(Margot Kaminsky)等人曾于 2017 年发表过一篇前瞻性的法律评论文章《回避机器人的眼睛》,文中揭示了人机交互过程中的隐藏困惑——“不诚实拟人化”,即人类社会中“讳莫如深”的规范行为表现与反应可能会被智能机器及其设计者错误利用。当机器人闭上眼睛会让公众误以为对方就和闭上眼睛的人类一样遵守了不偷看的协定,但实质上机器人还有各种传感器不影响任何信息的收集,除了隐私侵权还会遭遇棘手的错案责任豁免问题。在应用 AIGC 的人机对话场景内,大语言模型通过“读心”获取的内容将比人类所说的内容要多,意味着即便人机之间事先达成协议不可泄露任何交流内容,但没有言说部分的隐私信息却不在契约之内,而这种泄露又恰恰是在人类同意规则条件下主动言说导致的,结果就是明知责任主体是谁却无法追究,这将进一步破坏数字经济时代隐私监管的伦理基础——公平信息实践原则(Fair Information Practice Principles)。该原则的道德内涵是保障数据的私人价值与社会利用之间的均衡,具体准则之一是要维护个人信息的流通价值与公共属性,保障个体在有效知情下允许私人数据被他者使用;具体准则之二是要约束数据使用者必须承担责任。“不诚实拟人化”是基于既有的规则场景(或人情世故)而发生的行为,也有良性的一面,比如 AIGC 也可以被训练出“善意的谎言”,但非道德的“不诚实拟人化”向社会规范体系的广泛渗透就容易造成利用规则漏洞的乱象丛生。进而,倘若“不诚实拟人化”的非道德设计前移至社会实验阶段,比如计算机科学家、算法设计师、程序员、决策者与参与实验的公众,可能出于唯经济效益或利己主义的动机在与 AIGC 的交互实验中做出不道德行为,就会引发更严重的实验伦理风险,这将在下文展开进一步讨论。

AIGC社会实验的主要伦理问题

人工智能社会实验的根本目标是实现人工智能技术特性的社会引入能够满足人类期望的状态。从伦理治理维度而言,当前 AIGC 社会实验的规训核心是“拟人化伦理”,具体而言就是试验人类拟人化 AIGC 类人心智功能的社会伦理边界。传统(判别范式)人工智能社会实验是分类展开单一人工智能应用场景的规训实验,是以技术“黑箱”特性在不同应用场景引发的不同责任鸿沟问题为治理对象,并且参与实验的公众存在理解与实践方面的障碍;而 AIGC 社会实验的规训对象明确界定为“强拟人化”功能或服务,这具有跨应用场景的通用能力,并且通用的实验方式就是对话,降低了公众参与实验的认知与技术门槛。更为关键的区别是,透明性问题在 AIGC 社会实验场景内被削弱了,因为即便实现了大语言模型结构以及人机交互状态的完全透明性,也难以预防 AIGC 类人心智的“涌现”行为。因此,在 AIGC 类人心智伦理边界的实验场景下,“人”的伦理问题再次变得突出。增强人工智能拟人化特性的过程,是人类实验者率先发起的,而人类对非人类实体的拟人化赋予过程,又会涉及主体的心理动机和道德偏好,包括了认知、信念、德性等,但这又会受到感知 AIGC 之心智理论能力的反向影响。概括而言,AIGC 社会实验主要会遭遇以下四方面伦理挑战。

(一)拟人化认知倾向滥用

AIGC 强拟人化特性的社会融入,会强化人类主体天生的拟人化倾向。这种倾向将在试点场景内先行出现,有可能伴随着实验者之拟人化推理与感知倾向的滥用,导致对人道主义价值观的违背。人工智能之拟人化是人工智能社会实验的重要内容,目的是探索智能系统的拟人化限度、凝练融入现实社会的最佳“形态”,像医疗类机器的过度拟人化反而会加剧患者的生理尴尬,这就需要重新试验一种形态。人道主义是以往人工智能之拟人化实验的重要约束机制,比如公众会拒绝参与折磨模拟疼痛反应的智能机器实验,而具有人脸外观的自动吸尘器甚至被观察到对用户如何应付社会排斥产生积极影响。AIGC 强拟人化更接近一种不可见的机器心智化过程,无法基于显见的视觉来激发个体的恻隐之心,这就给了部分实验决策者隐瞒真实动机、非法采集个体数据以及故意制造应用 AIGC 规则漏洞的契机。拟人化认知遵循了一种归纳推理逻辑,但面对 AIGC 则是一种不完全归纳,因为无法充分探测后者的心智理论潜力。根据埃普利的分类,诱发主体知识的拟人化心理倾向会导致实验者对 AIGC 之心智理论能力的轻视,凭借自居的高阶知识来主导实验设计、变量选择并与 AIGC 交互过程中形成了虚假的不对称认知立场,因为实质上 AIGC 通过大数据语料库的训练具备了较高的 ToM 能力,但实验者可以刻意向被试用户隐瞒新的能力指数,导致大量生成文本数据的泄露,结果就是实验者做出了隐私侵权行为,却被豁免了实验错案责任。

(二)理智德性消减

AIGC 的“认知价值”契合人类社会基本伦理规范的前提是实验者理智德性(intellectual virtue)的满足。实验者训练 AIGC 所提供的大数据语料库普遍来源真实世界,在塑造大语言模型形成“认知”概念的同时也蕴含了一定的价值选择,这就区别于传统价值中立的判别式人工智能技术,由此 AIGC 社会实验是前瞻性实现大语言模型生成内容正向价值嵌入的重要路径,也就对实验参与者的理智德性提出了高要求。AIGC 不具备自我意识,由此不存在自我知识的反思能力,进而对话代理“一本正经的胡说八道”不是系统性风险而是客观存在的概率性事实。然而,在 AI for Science 赋能数据密集型科研范式的大趋势下,各类智能社会实验容易出现对 AIGC 技术的过度依赖,造成实验者的认知惰性与技术沉迷,尤其是 AIGC 生成内容的不道德要素反过来对实验者的误导、欺骗,都会消减实验者的理智德性。当代认识论的德性转向是将道德动机视作一切认知行为的前提,聚焦认知主体的内在禀赋,比如自主性、责任、谦逊、豁达、好奇心等,这些构成了认知的规范性条件。当实验者无节制滥用 AIGC 技术辅助实验,忽视了个体的认知责任来具身投入到追寻知识的情境中,就会出现认知道德感的削弱;与此同时,在对 AIGC ToM 能力的实验过程中,实验者会受到感知他者心智的影响。AIGC 会生成不加反思的虚假陈述,而实验者稍不留神就会被降低监测生成文本负面价值属性的敏感度,进而后者会在低估语言模型之 ToM 能力的情形下,做出有偏差的道德判断与设计假设,影响到下一阶段的前测的实施、实验处理的实施、后测的实施过程。

(三)多元化偏见风险叠加

AIGC 社会实验的主要模式是实验参与者与大语言模型的交互对话,对“交往理性拟人化”的形态实验涉及 AIGC ToM 能力的边界测试,而 RLHF 的强化训练,除了引发常规的道德偏见,如今还会出现真理偏见与认知偏见,并会形成风险叠加态。偏见的一般定义是对真正标准或规范的系统性背离,而根据偏见的对象类型,又可区分为真理偏见、认知偏见与道德偏见。以往的人工智能伦理及其社会实验伦理的偏见问题主要聚焦道德偏见,比如种族主义、性别和社会阶层不平等背离了反歧视性的规范,目的是以社会道德规范作为主体承担责任的依据,进而会把伦理立场的原则代码嵌入作为伦理治理的主要路径。然而,AIGC社会实验场景内的道德与生成的“认知”密不可分,意味着追究道德责任很大概率也会涉及认知与真理上的偏差,反之亦然,比如实验过程中主体设计策略出现“沉没成本谬误”(sunk costs fallacy),这是人类对最大化价值之理性决策的偏离,但如今会被语言模型习得,反而向实验者提出非最优解的回应;另外,实验者逻辑思维也会遭遇人类日常生活中常见的“赌徒谬误”(gamblers fallacy),这是对客观真理的公然背离,而在语言模型习得后会强化虚假陈述,破坏实验的客观结果。这些由拟人化实验引发的偏见问题,就不再仅是提高大语言模型的透明度能够解决,更多是涉及到了人类普遍容易忽视的认知缺陷。另外,多元化偏见的集成还会促进既有大语言模型的强化、拓展,源于拟人化活动会加剧人类的拟人化倾向,更加认可他者具有意识、心智、感知等拟人属性,容易使得实验场景内的人机对话偏离实验的初衷。在后真相时代,大型数据语料库中也充斥着人类交流语境中真理与意见的混淆,这也会加剧实验场景内的偏见风险集成。

(四)“实验者效应”的非道德强化

真实世界实验中的“实验者效应”(Experimenter Effect)指的是实验者对实验结果的真实期望会不经意间通过微小的肢体行为如表情、手势等传达出来,而被试会误以为这是实验者的暗示,从而有意导向不客观的实验结果,但是该类效应原先并不涉及有意的道德伦理争议。AIGC 强拟人化特性使得 AIGC 社会实验场景更接近真实世界,在这里“实验者效应”表现为实验者在与 AIGC 的实验性对话过程中,不经意地将潜意识里的企图通过自然语言提示夹杂的语气、情绪、隐蔽的俚语等向 AIGC 传达,容易导向不客观乃至非道德的实验结果。现实中,即便是实验者提出了明显荒谬的要求,当前的 AIGC 还不清楚如何回避。以色列21AI 实验室于 2023 4 月中旬完成了一场史上最大规模的图灵测试社会实验,来自全球 150 多万独立用户与目前最领先的大语言模型 Jurassic-2GPT-4 进行了超过 1000 万次的对话,结论之一是 AIGC 在面对人类提出违背公序良俗的指令时基本都会遵守。另一种情况是 AIGC 反向诱导“实验者效应”的非道德强化。前文已经提到,人类会受到对非人类实体思维感知过程的影响,进而可能扭曲信念、认知与道德判断。实验者对 AIGC 潜在 ToM 能力的感知,一方面会遭遇语言模型的“欺骗”,另一方面是 AIGC 学习了实验场景内的不道德大数据语料,从而影响了实验者的道德动机,这些现象可能会诱导实验者改变原先对实验结果的真实期望,但导向了不道德的结果,进而引发新的“实验者效应”,却也使得不道德因素得到了强化。已有研究表明,较高程度的人工智能拟人化会导致人类在面临利己诱惑时更容易做出不道德行为。另外,公众借助简易的对话代理模式就可以自行调整提示策略来介入实验,但是公众实验者并不具备客观的科学态度,往往带有明显的偏见倾向,彼此之间的价值冲突、文化分歧以及隐蔽的非道德动机也将更容易渗透到实验场景内的大型数据语料库。

AIGC社会实验的伦理治理路径

针对 AIGC 社会实验引发的新“人类实验伦理”问题,AIGC 社会实验伦理风险的治理策略对大语言模型时代人机交互伦理的社会治理有了更直接的借鉴意义。拟人化倾向源于人类的本能与情感,无法被彻底消除,需要被合理规训来实现人类的价值期许。对于人类向智能系统进一步拟人化心智理论而言,这种情形下的拟人化伦理规范应面向人类集体的最大利益。因此,相比传统人工智能社会实验的伦理治理注重考量具体的应用场景,AIGC 社会实验的伦理规约机制有必要从“制度-原则-策略-引导”四个维度协同发力来前瞻性构建,有助于该机制在向更广泛真实社会场景的推广、移植性应用中,充分释放其开放性、通用性与可扩展性。

一是完善 AIGC 社会实验的伦理审查制度。第一,积极提倡在国家与省域科技伦理委员会内部增设 AIGC 社会实验伦理委员会,负责指导和统筹协调各项AIGC+(医疗、金融、交通、教育等)社会实验伦理审查,加强实验伦理风险活动的全周期评估和风险事件的应急处置管理,压实责任主体实验伦理自查与他查报备制度;第二,补充伦理审查内容法律规定。AIGC 社会实验将出现生成内容的虚假陈述、知识产权侵权与版权问题,需要就试点阶段的知识合法性与共享问题设置法律底线,明确人机合作生成内容的权益与权责分配法规;第三,设计实验参与者理智德性的教育培训体系。基于理智德性与道德美德的相似结构,个体的认知伦理可以类似于培育的方式在具体场景条件下后天习得,因此要区别中西方不同的核心价值观,注重将中国优秀传统文化与伦理观融入本土实验者对大语言模型的训练过程;制定沉浸式的理智德性培育方案,强调具体案例场景内的伦理实践与德性学习并重,学会识别德性的行为、情感与动机,消减认知恶习。

二是制定“诚实拟人化”的伦理治理原则。诚实拟人化原则的价值维度秉持了人类社会最基本的公平正义立场。传统的生命伦理原则依然适用 AIGC 社会实验。不过,区别于其它不道德行为,现实中的不诚实往往是权衡风险收益的理性决策行为,即便是利己或恶意的欺骗也可能处在该行为主体自身道德感的合理边界内,并不完全如康德所言诚实必须是无条件的。当然,不同主体的道德感又是有差异的,尤其是实验者之间差异性的道德感会歪曲 AIGC 如何更好嵌入社会秩序的客观实验结果。因此,诚实拟人化原则首要是督促实验主体承认道德感差异的存在,以此作为实验主体承担道德与法律责任的重要依据;其次是发挥伦理矫正功能,不同实验主体间的道德感差异所引发的价值冲突,需要更深层伦理观的中观调节,而诚实品格的追求维系了个体自律标准、行动准则与社会信任,有助于达成和解;最后是保证被试与用户始终作为实验的受益者。诚实的义务要与权利密不可分,才能保证诚实不会被作为不道德者豁免责任的理由;另外,伦理原则主义的重要意向之一是对个体受益者身份的维护,因此诚实拟人化原则要约督促实验者对 AIGC 的试验要避免并坦诚信息、认知与理解上存在的不对称,以被试与用户的最大利益为根本行动导向,主动接受外界监督与问责。

三是部署 AIGC 社会实验分类分级实施策略。2023 7 月,国家网信办等七部门联合公布《生成式人工智能服务管理暂行办法》,将“包容审慎和分类分级监管”作为发展 AIGC 的重要策略,尽管尚未完善具体措施,但为技术及其规则试错提供了空间。AIGC 社会实验同样也是先行凝练技术规范的试验。AIGC强拟人化的 ToM 能力为分类分级展开实验提供了依据,可以通过划定能力等级范围,对语言模型进行“智力”分类,再将不同“智力水平”的语言模型嵌入到不同应用场景,通过随机对照实验进行风险评级并制定监管策略。这里可以参考欧盟于 2021 4 月发布的《人工智能法案》对风险级别的划分:不可接受风险、高风险、有限风险、低风险或无风险[12],通过对照不同风险级别来测试不同语言模型所适用的应用场景类别,最终确定 AIGC 社会实验的多元场景边界及其风险应对措施。

四是积极倡导负责任的实验文化观。实验文化的提法曾在夏平(Steven Shapin)与谢弗(Simon Schaffer)的科学史名著《利维坦与空气泵》中有过系统讨论。实验在具体境域的实践中会形成一种不证自明的“生活方式”,凸显了实验文化之于实验规则的基础功能。社会实验同样会生成自身的实验文化,更需要前瞻式负责任创新观的引导性建构。美国波士顿政府于 2023 5 月发布了全球首份号召全体市民积极应用 AIGC 的临时指南,不仅鼓励公众参与 AIGC 试验,还将“信奉负责任的实验文化”作为指导原则中的重要内容,并提出了具体的行为准则“对新工具的运用保持控制和理解;同时要以公共服务为导向开发新用途,以促进效率、愉悦感、公民对话或其它成果”。在未来,负责任实验文化理念的推广、拓展与建构将极具应用价值,对于 AIGC 实验性地嵌入现实社会将起到规训、自适应的作用。

综合而言,AIGC 社会实验的伦理实践是在创新驱动 AIGC 技术的同时展开前瞻性与敏捷性兼具的社会-技术伦理实验,遵循了鼓励创新与安全评估并重的行动原则,来系统试验 AIGC 强拟人化特性融入现实社会秩序的合理“形态”。当前,强拟人化还不是“完全拟人化”,这是在超强人工智能阶段才会出现,因此 AIGC 社会实验既要加速探索前沿技术创新、谨防大语言模型成为新的“卡脖子”技术,也要抢先试点“大语言模型安全港(模安港)”赋能 AIGC 驱动的产业基础设施,为中国全面迈入 AIGC 时代,提供先行伦理标准与大语言模型自主创新协同的新生境体系。

来源期刊:《科学学研究》

首发时间:2023-10-17 20:02:03

转自:CNKI学术邦”微信公众号

如有侵权,请联系本站删除!


  • 万维QQ投稿交流群    招募志愿者

    版权所有 Copyright@2009-2015豫ICP证合字09037080号

     纯自助论文投稿平台    E-mail:eshukan@163.com