以下文章来源于现代出版 ,作者陈昌凤 黄阳坤
内容摘要:以ChatGPT为代表的生成式人工智能技术正表现出强大的知识生产与传播能力,或对人类知识体系产生难以捉摸的影响。从社会知识论与知识社会学的视角,可以分析ChatGPT作为构建和传播知识的社会行动者之理论合法性及其潜在影响:它的确在理想情况下为促进知识交流与融合、培育出更高层次的集体智慧创造了机遇,但在社会现实与技术发展交织的情况下,它同样也可能会走向“众智连接”的反面——俘获知识权力、发展出后人类意义上的硅基知识寡头;将知识伦理、媒介伦理融入预判性技术伦理的框架中,有助于调适社会化技术融于知识社会化进程时的张力与矛盾,进而有助于更好地厘清、定位人工智能体介入知识网络后带来的人类知识危机。
//目录
一、人机共生时代的知识生产与传播:社会化的技术和知识的社会化
二、作为知识主体的ChatGPT:人工智能与人类知识何以关联
三、众智连接的可能:知识社会化的愿景
四、知识寡头的风险:技术社会化的隐忧
五、知识危机的消解:预判性技术伦理与知识伦理、媒介伦理的融合
ChatGPT与其背后的GPT技术(Generative Pre-trained Transformer,基于Transformer架构的生成式预训练模型)已经引发全球关注。由于吸纳了Wikipedia等众多知识性资源,且支持自然语言问答,ChatGPT自问世以来,其丰富的知识库使其成为“激发生产力和人类创造力的巨大引擎”,它在知识生产、传播上的功能性地位亦逐渐获得认可。
然而,在讨论以ChatGPT为代表的生成式人工智能与人类知识体系时,一些问题亟待提前厘清:首先,ChatGPT所生产、传播的内容是否可以称为“知识”?换言之,如何从已有的知识论上定位ChatGPT所参与生产、传播的内容?这是需要解决的第一个问题;其次,如果承认其内容作为知识的“正当性”,它所拥有的“知识”与现有的人类知识、文明体系有何基本关联?这是接踵而至的第二个问题;最后,一个不得不思考的问题在于,它所主导的知识体系会对人类主导的知识体系产生哪些可能的影响?它是否会促进知识的交流与融合,抑或俘获知识权力、垄断知识的社会化进程?尽管仍有不少观点谨慎地将ChatGPT视作弱人工智能,但为了面对知识领域可能出现的“科林格里奇困境”,在人工智能技术的知识能力愈来愈突出的背景之下,前置这些思考有其重要价值。
一、人机共生时代的知识生产与传播:社会化的技术和知识的社会化
何谓知识?这是在探讨知识与人工智能之前必须要引入的一个重要问题。实际上,关于知识的知识,即知识论,人们对其莫衷一是:过去相当长的历史时期内,《泰阿泰德》(Theaetetus)中关于知识的定义“得到证成的真信念(justified true beliefs)”受到传统知识论者的推崇 。但随着20世纪60年代“盖梯尔问题”的提出,人们意识到传统知识论对知识的三元定义存在不足:即便保证了“证成”“真”“信念”,人们也可能得不到知识;对知识定义的完善需要通过附加或者完全替换知识的必要条件来实现。传统的知识论自此面临挑战,超历史的元知识概念、纯理性的逻辑化传统等使得传统知识论招致批评。作为非主流的一些论调,如从生理、心理的个体认识论倾向进入的自然主义认识论(naturalism in epistemology)、从社会历史的社会认识论角度进入的语境主义认识论(contextualism in epistemology)等得以重新活跃于理论视野,对知识产生、传播、接受的动态过程展开阐释。
随着人类社会步入技术高速发展的大图景之中,非人存在(nonhuman),如机器与技术、动植物与生态环境等,作为意义建构之行动者的地位得到了关注。其中,机器与技术对人们知识与认知构建上的功能在彼得-保罗·维贝克(Peter-Paul Verbeek)关于非人本主义的道德示例中即有迹可循——诸如超声波这样的技术彻底改变了人类对妊娠、疾病与生命的感知与体验。当前人类的知识体系面临新变局,知识创新走向人机协作的新阶段;智能技术正从内涵、类型、范围、生产模式、表征和结构等多向度改变当代的知识,革新我们对于知识的基本观念。
正因如此,从人类的逻辑、理性与生理、心理等出发的知识论在当今现实中遭遇了解释力上的考验——当机器与技术可能(或已经)成为影响人类知识生产与传播的重要主体,理性逻辑以及生理、心理等自然性因素何以观照知识体系中的非人部分?反观社会知识论(social epistemology),它对于思考当下人机共生的局面仍葆有解释力与生命力:区别于其他知识论观点,社会知识论者反对个体主义将知识视为孤立个体心智运作后的结果,而将其视为一种社会共识和社会系统,重点考察“知识在社会层面的概念和规范”。社会因素对知识确证的影响在社会知识论之下既已明确,被“社会化” 高度建构的机器与技术得以自然地进入关于人机共生时代知识生产、传播的讨论之中;换言之,在人机共存的智能社会,机器与技术作为超越人类生命的新社会主体理应被纳入关于知识社会化的讨论中。
需要说明的是,社会知识论在经验方面植根于知识社会学(sociology of knowledge)。故从社会知识论进入探讨人机共生时代的知识生产与传播,应循知识社会学对知识的界定进行考察——既包括一般的科学和理论知识,亦包括思想、观念,以及用以指导日常生活的常识,这为本文所探讨的“知识”划定了边界。
二、作为知识主体的ChatGPT:人工智能与人类知识 何以关联
基于社会化的技术和知识的社会化两个层次,前文表明了在社会知识论视野下,机器与技术的视角不应缺位于当今智能社会知识生产、传播的讨论之立场。但当观察将视角移至具体的人工智能技术,试图阐述ChatGPT在知识生产、传播上的功能与影响时,有必要再回应一个问题:以ChatGPT为代表的人工智能与人类知识有何关联?
就一般意义的人工智能技术而言,人工智能与人类知识之间至少存在两个维度上的关联:一方面,知识本身构成人工智能的基础内涵。尼尔斯·尼尔森(Nils Nilsson)很早便表示人工智能即一门“关于知识的科学,其本质是关于如何表示、获得、利用知识”。知识是智能的基础,没有人类预存的知识,就谈不上评价机器表现出的智能。人工智能的三大流派——符号主义(指名)、行为主义(指物)、联结主义(指心),虽各有其技术主张,但对知识表征(knowledge representation)的追求未有止步,都长期致力于寻觅更优的数据结构,以更好地符号化、形式化或模型化人类知识,充分发挥机器的计算能力。
另一方面,知识发现(knowledge discovery)是人工智能的重要外延。如将迈克尔·波兰尼(Michael Polanyi)显性知识(explicit knowledge)与隐性知识(tacit knowledge)的二分思路置于人工智能的语境下思考:人类的显性知识在恰当的知识表示方法下可由机器习得,进而用于服务人类决策;至于人在感觉上可以把握却无法清晰描述、表达的隐性知识,在人工智能技术加持的知识发现与数据挖掘过程中则有转化成显性知识的可能。除了人类知识的转化和发现外,一种与人类知识平行的机器知识(machine knowledge)也在人工智能的发展中不断被发掘和完善,如在知识蒸馏(knowledge distillation)的深度学习过程中,“教师—学生模式(teacher-student model)”会将训练好的模型里包含的知识性信息(如模型参数)提取、泛化至其他模型中,形成一个由“教师模型”类人化地向“学生模型”传授 “知识”的过程。这一过程中被转移的“暗知识(dark knowledge)”具备知识的一般属性,且同样是从人工智能的训练过程中被发现,但它往往不在人类可把握、理解的知识范畴内,有学者将其视为机器知识的一种典型。
就ChatGPT的实际情况而言,它对于人类知识的学习和吸收已到达了较高的水准——对于这一水准的评判来自两个层次:参数与数据。作为一个大语言模型,GPT的性能通常随着向模型添加更多数据和参数而得到扩展。目前,ChatGPT在不同版本中接入了GPT-3.5和GPT-4两个模型:前者的参数数量达1750亿,训练集的token数量达4990亿,其数据源来自Common Crawl数据库、WebText数据集、英文维基百科、书籍期刊,这其中仅蕴含在书刊内的知识就已超出一般个人的知识水平;后者的参数数量和数据集大小虽暂未得到官方说明,但就其表现而言,GPT-4在多个测试集上表现出SOTA(state of the art)水准,且在多个学科领域的考核中表现出超越80%人类应试者的水平,这些数据在一定程度上表明GPT技术对知识的掌握与利用不仅已经开始超出同类大语言模型,还超出大多数人类个体。
与此同时,ChatGPT还在强化学习技术的加持下,从与人类的对话中动态地习得其不知晓的知识或修正自身错误的“幻觉(hallucination)”——譬如此前用户在GPT-3上发现了其在计数能力上的缺憾,但最终在对话引导下修正了其计数结果,这是技术在与人交互时进行知识发现、学习的一个实例。在技术层面,基于人类反馈的强化学习方法(Reinforcement Learning from Human Feedback,RLHF)已经被嵌入ChatGPT之中,现有技术条件可以保证会话式的人工智能系统在RLHF机制下实时更新其知识体系,并在后续的交流中改进其反应。
人工智能以知识的表示、获取、应用为依归。技术的角度进一步说明,从知识的角度进入并观察人工智能的技术本质和社会影响是一条天然的进路:一方面,人工智能的发展要旨就在于不断完成对人类既有知识的收集、学习与内化;另一方面,人工智能在辅助转化隐性知识、生成自有知识上已经表现出一定能力。以ChatGPT为代表的人工智能体已然成为当代知识体系中的重要行动者,它们在学习、利用、传播人类既有知识的同时,也参与挖掘甚至自行生产知识,其作为知识主体的地位理应得到认可。
三、众智连接的可能:知识社会化的愿景
以ChatGPT为代表的人工智能作为知识生产者与传播者的地位得到论证,思考它们可能为人类知识体系创造出的变局便成为题中之义。如前所述,ChatGPT之于知识体系的功能不仅限于内化与继承,还在于创新和发展。这一论断的实质建立在知识社会化生产的愿景之上:知识是社会的产物,在社会互动中产生、传播;作为智能社会的行动者之一,以ChatGPT为代表的人工智能技术接入了知识生产、传播的社会网络之中,得以同人类一道参与知识的社会化进程。
伯格(Peter L. Berger)、卢克曼(Thomas Luckmann)在阐述知识的社会化过程时引入了社会知识库(social stock of knowledge)的概念:他们认为语言以及由语言形成的语义场将个人与社会总体经验客观化,并决定了经验的留存,最终形成社会知识库。过去,我们可能认为人类语言是一种独特的人类产物,“语言所表达的,即社会作为一个整体借以表现经验事实的方式”。对于一个有语言能力且具备生产、传播知识功能的人工智能体而言,ChatGPT正展现出将伯格、卢克曼所述的社会知识库实体化的能力:作为大语言模型,GPT技术本身在语言理解能力上具备优势,对社会知识库背后的语言及语义场有兼容、扩展的可能,它内化人类历史的知识体系,又在互动中实时学习用户的输入和反馈,从中挖掘知识;这些知识包括已为人类所把握、所表达的显性知识,亦包括为人类所把握但尚不能清晰传达的隐性知识,最终在交互中实现传递,实现知识的社会化分配。
事实上,这种“众智连接”的理念在Web2.0时代就得到过实践,即在互联与社交中发展所谓的 “集体智慧(collective intelligence)”——一种从个体互动中涌现的、不断增强和协调的分布式智慧,如维基百科等集体知识库、Topcoder等众包平台、微信读书等社会化标注应用、IMDb等推荐平台等均贡献了丰富的集体智慧。在生成式智能获得大规模社会化应用的背景之下,“众智连接” 的愿景被赋予了更多可能:
首先,“众智连接”主体的异质化。集体智慧下的个体(individuals)不再仅仅局限于人,也可以是机器代理(software agents)。集体智慧的产生不再简单依靠维基人(Wikipedians)之间的知识共创模式,机器与人以及机器与机器(如 “暗知识”的传递)之间同样可以实现集体智慧的无缝集成。对于ChatGPT而言,机器与人之间知识的交流协作案例不胜枚举,机器与机器之间的智能交流亦有案例,如ChatGPT与Stable Diffusion等其他生成式智能模型之间实现功能嫁接,提高多模态内容的生产能力。
其次,“众智连接”模式的智能化。必须承认,Web2.0时代的“集体智慧”并非没有智能技术的参与,例如谷歌利用搜索引擎记录下的集体知识和数字痕迹,为用户在搜索栏中输入的问题提供智能推荐、补全等功能,这是智能技术衔接众智的一个表现。但是一方面,这种基于推荐算法的偏好预测结果是否可以称得上一种“集体智慧”或 “公共知识”有待考量;另一方面,各地用户在与ChatGPT的对话中输送了大量的地方知识,借助数据挖掘技术,这些由用户输入的智慧可在模型微调和迭代过程中形成结晶化的知识(crystallized knowledge),进而反映到后续的模型中,这在推荐系统中难以实现。
最后,“众智连接”效果的扩大化。大语言模型的规模在超过该阈值后,其在少样本学习(few-shot prompt)、多步推理(multi-step reasoning)、模型校准(model calibration)等方面的能力将涌现,即以人类不曾预测和把握的形式,突然地出现、提升;且模型规模越大,其记忆速度越快、遗忘内容越少。在学习、推理、校正、记忆知识方面胜过GPT-3.5的GPT-4嵌入ChatGPT,极大地增强了ChatGPT学习、发现、传播知识的效能。综上,大模型时代集体智慧的产生与发展是我们置身小模型时代难以想象的。
ChatGPT技术上的进步及其社会化的应用为智能时代的集体智慧发展提供了新的进路,创造了知识社会化生产、传播的新愿景:人与人、人与机器、机器与机器之间的知识得以贯通,塑造出一个庞大、多元且有自进化能力的社会知识库。但过去集体智慧的发展经验提醒我们,协作化的知识生产本质上是社会共识的生产,仅从技术层面做出“众智连接”的遐想或许会导致一叶障目——机器只是诸多行动者中的一员,技术也仅是社会系统中的一部分。过去的观点认为集体智慧的生成需在多样化(diversity)、独立化(independence)、去中心化(decentralization)的环境下;另有学者为集体智慧提炼了四项基础原则:开放化(openness)、对等化(peering)、共享化(sharing)和全球化(acting globally)。不难看出,“集体智慧”这一概念的发展同样暗合社会知识论与知识社会学的主要逻辑:即知识是社会的政治、经济、文化、科技等要素作用下的社会产品,对知识的生产、传播的考察要放置在整体性的社会背景之下。目前就ChatGPT的技术特性来看,它确有可能引领“众智连接”的局面出现;但当其与其所处的社会系统在运行逻辑上有悖于集体智慧之开放、对等、共享、全球行动等原则时,“众智连接”将会受阻甚至出现逆转。
四、知识寡头的风险:技术社会化的隐忧
知识权力的集中,即知识垄断,是集体智慧的反面,曼海姆(Karl Mannheim)的“知识的政治”主张、福柯(Michel Foucault)的“知识—权力”理论,都为知识社会化进程中暴露出的权力偏向提供了洞察。“众智连接”是ChatGPT作为知识主体与人类知识体系相融后的一种开放愿景,但当人工智能及其所处的环境与集体智慧发展的原则与条件形成冲突时,它本身作为巨量知识库的属性有可能会将其推至“众智连接”的反方向,变为硅基(silicon-based)意义上的知识权力中心,成为新的“知识寡头”。
之所以强调ChatGPT作为知识寡头之新,是因为此前知识社会化的进程实际上也是各类知识寡头产生的进程。就前ChatGPT时期而言,全球知识体系的早期形成有赖于作为主体的大学和学术社团、作为中介的大型学术出版商,以及作为通用方式的科学知识验证、求真和论证,知识最初于这样的条件下在全球范围内得以产生、确证和传播,大学及其雇佣的专业人员、学术期刊、图书馆等垄断了当时的知识生产,主导了知识分配的进程。随着技术革新,Web2.0时代看似变革了原来的知识权力结构,虽然数据上呈现出一派融合共生的样态,但平台资本主义其实让数据库、搜索引擎、网络百科全书以及公共平台成了新的知识寡头,它们背后的系统性不平等被认为对全球知识生产系统造成了损害。
从当下知识生产、传播系统中几类知识分配主体的反应,我们可以较为直观地察觉到ChatGPT对现有知识权力的冲击,以及其发展成知识寡头的可能性:部分大学正在形成反对ChatGPT进入校园的规章与制度,一些学术期刊开始禁止或限制ChatGPT以合作者的形式出现在学术文章中,Stack Overflow等专业知识社区不允许上传ChatGPT生成的内容……主流的知识分配主体正在对作为新型主体的ChatGPT发起密集的限制,这实际上都是知识权力体系面临变革与更迭的重要信号。
当前,作为一项新兴技术的ChatGPT仍然附着于平台资本之上,深深根植于西方的社会土壤中,这决定了它成为区域性甚至全球性知识寡头路径的第一步:正如前ChatGPT时期由平台资本培育出的知识寡头们——谷歌搜索、维基百科和爱思唯尔、施普林格等大型学术数据库那样,它们主导的知识分配实际上是西方科技巨头全球资本扩张过程的一个缩影;在这个过程中,它们不仅向全球用户传递带有西方文化烙印的知识与观念,更是重新定义了多数人获取知识的方式——当求知欲被激发时,“上谷歌、搜维基”已经成为很多人的定势思维。目前,ChatGPT在某种程度上正在复制谷歌和维基百科的路径,在全球范围内高速收割用户,人们“上谷歌、搜维基”的惯性或正在被“问ChatGPT”打破。
这种附着在特定社会环境与平台资本上所形成的认知寡头养成路径是需要被关注的。前文提及的数据库、搜索引擎等在各自的全球扩张进程中屡次受到西方中心主义的质疑和诘问,事实上,它们的确将一些西方的、北方的偏见包装成知识,在促使东方、南方对其知识权力形成依附后将这些偏见散布出去,这其实也就是曼海姆所言的知识之社会性、偏向性或意识形态性。此外,除了促成对知识权力的依附之外,这种知识寡头还可能直接造成对知识的封锁与阻断,这在ChatGPT此前的一些举动上已经可见苗头——ChatGPT及其开发者OpenAI封禁了大量亚洲节点,这在客观上造成了知识获取与交流的困难。
但如果对ChatGPT等人工智能技术可能形成的知识寡头之思仅止步于此,那么ChatGPT与谷歌搜索、维基百科将不会产生差异。而很显然的是,前者与后两者在智能化程度上已有显著差异, GPT等智能技术在协助知识被发现、生成自有知识上已经展现其能力,赋予了ChatGPT在知识创造、传播上的主体性。知识社会学的基本观点需要我们保持逻辑的连贯性:如将一个具备知识创造、传播能力的人工智能体视为实然的社会行动者,其对知识可能产生的影响需要仔细考虑。
走过成为知识寡头的第一阶段,即附着于特定社会土壤和平台资本上,对全球知识权力体系进行占领后,ChatGPT还有可能走向其作为知识寡头的第二阶段:在这一阶段,知识寡头这一概念直接指向机器知识与人类知识之间的关系。正如计算机科学家史蒂芬·沃尔弗拉姆(Stephen Wolfram)所言,一个如天气那般具有计算不可约性(computational irreducibility)、与人类文明平行的“AI文明(civilization of AIs)” 正在形成,它独属于人工智能体的历史网络(web of history);当人类抵达技术奇点后(technological singularity),包括人类知识在内的一切人类主义叙事都有可能失去描述与解释的效力。当前在人工智能发展的过程中,不论是模型扩大涌现出的各类能力,还是模型压缩过程中出现的“暗知识”,实际上已经都超出了人类既有知识可以解释和预测的范畴。计算机科学家正在尝试整理、解释大语言模型的涌现能力,形成相关的理论和知识,这实际上是人类知识对不可解释的机器知识进行转译。
这种立足于智能和技术逻辑之上的认知寡头养成路径同样值得关注,它关乎知识生产中人的主体性危机与人本主义的存在危机。一方面,这种知识寡头的出现重新定义了知识观:人工智能中不可解释但又确然发生的现象显然不能被忽略,但对它的解释是对人类知识的补充,还是对机器知识的注解,这需要辨明。简而言之,这些是否还属于知识的范畴?如果是,这是属于谁的知识?另一方面,这种知识寡头的出现标志着中间组织(intermediate group)的解体与重塑,或重新书写了知识社会化的效果与方式:GPT技术目前尚未完全解决“幻觉”与抄袭的问题,若其知识寡头的地位得到确立,由GPT技术主导的知识生产与传播有可能会将知识社会化推入谬讯误讯频发与知识循环复制的怪圈之中;此外,此前人类知识的交流仍在人群中完成——人们一起聚在各式平台上相互补充、纠正,形成开放、供参阅的知识;但当人们开始转向和ChatGPT“取经”,在一方小小的界面中与机器完成知识的交流与共创,人类的知识社区或将就此没落,人在知识生产这一维度上将走向原子化(atomization)。
五、知识危机的消解:预判性技术伦理与知识伦理、媒介伦理的融合
本文从社会知识论与知识社会学的视角进入,将ChatGPT代表的人工智能技术视为构建和传播知识的重要社会行动者之一,阐明了ChatGPT介入社会知识生产网络后可能带来的两种局面——它在理想情况下可以促进知识交流与融合、培育出更高层次的集体智慧,同样也有很大可能会在社会现实与技术发展的交织下俘获知识权力、发展出后人类意义上的硅基知识寡头,这样会将知识生产、传播推入危机之中。
传统的人本主义伦理学往往主张在技术形成之后再根据其社会影响对其进行反思,这种后思式的外在路径常遭到后现象与后人类主义者的批评。一些新伦理范式有益于改善人类对智能技术的滞后性调适。E其中,荷兰预判性技术伦理思潮即试图对这种批评作出回应,主张以前瞻性和实践性的思维评价技术的社会后果。例如,茨亚林·斯威斯卓(Tsjalling Swierstra)与卡廷卡·韦伯斯(Katinka Waelbers)综合现况、能力、义务三个维度,与利益相关者(stakeholder)、后果(consequences)、美好生活(good life)三个层次设计了道德的技术调节矩阵(matrix for the technological mediation of morality)以帮助判别技术伦理风险;又如菲利普·柏瑞(Philip Brey)围绕危害和风险(harms and risks)、权利(rights)、分配正义(distributive justice)、幸福和公共利益(well-being and the common good)四大维度罗列了详尽的技术伦理清单。
这些伦理学的理论工具本质上均系回应维贝克“道德物化(materialization of morality)”的非人本主义伦理学思想,即将机器和技术同样视为重要的社会行动者,并通过技术设计赋予人工智能道德观念,这对于规范ChatGPT这类一经发布便快速社会化的人工智能产品有了可操作性。但ChatGPT用户众多,知识生产、传播只是其中一环,如要有针对性地化解可能的知识危机,还需要将知识伦理、媒介伦理融入其中。
知识伦理与预知性技术伦理的结合点在于,何以前瞻性地判断一项智能技术被用于知识生产后可能带来的价值与危害,包括是否可以形成特定知识、为何(不)需要形成特定知识、这种知识有何价值与问题、谁应当成为其知识价值与风险的责任主体等,进而更细致地思考特定知识对应的道德理想、学科归属、时代性、民族性等问题,这实际上面向的是知识的伦理化问题;对应地,媒介伦理与预知性技术伦理的结合点在于,如何前瞻性地思考技术生成内容进入信息传播可能带来的价值与危害,包括是否可以传播特定的人工智能生成信息、为何(不)需要形成特定人工智能生成信息、这种传播信息有何价值与问题、谁应当成为其传播价值与风险的责任主体等,这实际上面向的即媒介的社会化问题。
知识伦理与媒介伦理的引入对应着ChatGPT作为知识生产者与知识传播媒介的双重定位,它们融入预判性技术伦理的框架中将会有助于更好地厘清智能技术介入知识网络后带来的风险。就柏瑞的预知性伦理理论而言,将知识伦理与媒介伦理融入其中,ChatGPT在知识领域的伦理问题可以得到清晰定位:它在危害和风险层面上可能会表现出损害人类认知能力与社会知识体系两种显在风险,在权利上则有可能波及人作为知识生产主体的自主、尊严、知识产权,在分配正义上会出现知识传播、分配上的不公、歧视以及封锁等问题,在幸福和公共利益上则更有可能对知识社会化过程中的民主、多元造成损害。循着这些潜在风险,我们可进一步在柏瑞提及的技术(technology)、人工(artifact)、应用(application)三个层次,对技术本身、技术开发人员、企业与投资人、行业监管组织、使用者等多个主体展开伦理责任分配与风险追责。
诚然,随着以ChatGPT为代表的生成式人工智能涌入知识生产、传播领域,不论是其可能促成的美好愿景,还是可能酿成的垄断风险,其实质还是在于社会化的技术融于知识的社会化进程时产生的张力与矛盾;故来自外部的伦理规约只是一道约束,如何将价值理性整合进人工智能的技术架构,让智能体真正学习作为知识的德性伦理、价值观与知识观,并外化于实践,这是需要重点思考的命题;否则,当人工智能体以硅基寡头的形式占领知识生产与传播的阵地时,一切或许只能期待“关机游戏(off-switch game)”或“红色按钮(big red button)”的启动。
(注释略)
作者陈昌凤系清华大学新闻与传播学院教授、博士生导师;黄阳坤系清华大学新闻与传播学院 2022 级博士研究生。
引用格式参考:
GB/T 7714-2015 陈昌凤,黄阳坤.ChatGPT的知识功能与人类的知识危机[J].现代出版,2023(6):10-18.
CY/T 121-2015 陈昌凤、黄阳坤:《ChatGPT的知识功能与人类的知识危机》,《现代出版》2023年第6期,第10页至18页。
MLA 陈昌凤,黄阳坤."ChatGPT的知识功能与人类的知识危机."现代出版.(6)2023:10-18.
APA 陈昌凤,黄阳坤.(2023).ChatGPT的知识功能与人类的知识危机.现代出版,(6),10-18.
转自:“再建巴别塔”微信公众号
如有侵权,请联系本站删除!