投稿问答最小化  关闭

万维书刊APP下载

陈昌凤 | 人机何以共生:传播的结构性变革与滞后的伦理观

2022/11/10 14:34:56  阅读:133 发布者:

 阅读准备

人机共生

在科幻电影中,我们尝尝能看到这样的场景:人们轻轻挥下手,眼前就会出现一块虚拟屏幕,在这块屏幕上就能实习工作、社交、娱乐等多种功能。在如今的现实生活中,人类和机器的界限也愈发模糊:AlphaGo通过不断自我学习进化,成为第一个战胜人类围棋冠军的人工智能机器人;我们呼唤一下天猫精灵、小爱同学或小度小度,就能用语音控制冰箱、窗帘等智能家居。这些现象表明人机共生的时代正在到来。

早在1960年,计算机专家约瑟夫·利克莱德便极具创造性地提出了“人机共生”的概念,在这一状态下,人类做任何复杂的事,只需设定目标、制定假设、确定标准,并执行评估,剩下的工作可以交给电子计算机自动完成。

当下,5G网络与新一代信息技术的融合发展带来了新的计算手段和终端,人工智能无处不在,同时借助手机、智能眼镜、虚拟现实等智能媒介,身体与技术也愈发紧密地融合,促使传播实践的主体从传统以肉身为基础的生物人进化到人机互嵌的赛博格。这意味着过去的传播伦理观和规则很难解释和应对当下的传播实践,人类需要重构人机共生的信息传播伦理。

传统的“传播”(交流)限定于人类之间的交往与互动。随着人工智能技术的广泛运用,人类正在走向人机共存时代,以智能算法等为内核的智能技术在信息生产、信息分发、事实核查、与用户的交流与互动等各个流程的作用,正在不断深化,正在改写信息传播和人类交流的内涵,重塑人、技术与社会之间的互动关系。反映和调节人们之间利益关系的价值观念和行为规划构成了伦理,智能等新型技术则通过变革人们之间的关系而改变原有的伦理。从人机关系的角度来看,智能时代的传播伦理观需要重视哪些问题?人机关系既是智能技术发展的结果,也是信息传播的伦理/价值观之源。为何传统的价值观无法解释和应对智能时代人机关系中的问题?社会的许多问题是由于我们的观念无法与技术相适应而引发的,社会学家用“文化滞后”“文化失调”来概括过这类现象。我们需要从人机关系的属性和机制、模式入手,了解其背后的价值观。人机关系的机制是怎样的?人机交互模式中有哪些影响价值观的关键要素?这些机制和要素蕴含着怎样的人、技术与社会之间的关系?凸显的价值观问题形成了怎样的伦理/价值观滞后?更为重要的是,机器的被社会化、人机传播的人化机制,不是功能性问题,而是结构性问题,蕴含了颠覆性。

严格意义上说,人工智能(AI)与人机交互(Human-computer HCI)还是两个领域。尽管它们都探索计算和智能行为,并且已经出现了一些交叉,但直到十多年前两者基本上还是各自发展的。人工智能以长期愿景为目标,而人机交互则侧重于在短期内对广泛使用的硬件进行创新和改进。本文所说的人机关系、“人机交互”,泛指了人与人工智能技术的关系,“机”是宽泛意义的,不仅指机器、机器人,也包括人工智能技术。

一、技术的“社会关系”:人机交互突破传统伦理范畴

技术都是为社会变革和人类发展而生的,但是过去尚没有一类技术,如智能技术这般与人类如此互嵌、如此交融。现今我们谈的人机关系,是融合智能意义的话题。人机融合智能是努力利用人和机器的优势形成新型的智能,核心起源是人机交互与智能科学两个方面。人机融合需要人能理解机器的信息“思维”和运作,从而有效地作出决策,而机器也要遵循人类的规则和处理信息的方式,相当于非人类的“社会化”,将人类社会规则内化为其行动指南。机器人/智能技术属性当然是信息技术,但是当它运用于人类和社会时,正在被“社会化”建构;人机交互尽管是一种信息处理机制,却赋予了机器以人类角色的特征。这其中蕴含了深层的伦理颠覆性。人机信息伦理处于技术与人、与社会的关系范畴,但又异于传统的技术与人的关系。

(一)被社会化的智能技术

人类智能之所以能够产生与发展,源于认为这个世界是一个可以编码的信息世界,是人类理性高度抽象化发展的结果。抽象是人类以理性把握世界的重要方式,而数学、计算和逻辑则是抽象思维的最高表达。数字化的人工生命和自然生命,其本质都被视为计算。这是智能技术诞生的理论基础。自20世纪中期开始,伴随着生物学和计算科学的发展,人们就尝试以计算的抽象思维去认识和把握世界。人工智能的奠基者图灵把人的大脑看作一台离散态的机器,并且论证了心灵实质上是信息处理过程。计算机的奠基人冯·诺伊曼则提出细胞自动机的理论,认为生命的本质也是计算的过程。康韦、兰顿等进一步发展了诺伊曼的理论,用计算思维来认识和理解生命,将生命的过程还原为计算的过程。到20世纪90年代,计算主义成为显性议题,哲学、认知科学等领域都关注计算主义的讨论。人工智能的发展,使得科学界、哲学界开始确定从物理世界、生命过程直到人类心智都是可以运用算法进行计算的, 连整个宇宙也完全是由算法支配的。

机器人实际上就是一个模块化的信息装置,是有赖于众多信息技术支持的,是技术属性的。但这种技术是在不断被“社会化”建构的。为了满足社会需求,智能机器从功能到形态都在不断被赋予社会化特征。机器人/智能技术被赋予“头脑”——本质上就是计算机硬件和软件;它们还被赋予了“身体”——是人类按照其功能和自身的需要赋予了机器、技术以外表。技术一旦被社会化运用,它便存在于一个由人类、技术、社会乃至自然组建的复杂化的系统之中,它的技术属性不断被系统的关系所塑造。比如,机器的外表对于人机关系变得十分重要,“仿生机器人”(humanoid)、类人机器人(android)特别受关注,它们“长得”像动物或像人类,在人类环境中被赋予了社会意义。智能技术与社会互动,成为人机关系伦理的基本范畴。

(二)被“角色化”的信息处理过程

人类与机器人之间的互动被称为人机交互(Human-robot interaction, HRI)。人机交互,是一种不同寻常的信息处理过程。这个过程有其独特之处:第一,机器作为传播者、而不只是被传播者操纵的中介或工具,其角色应受到重视;第二,作为社会性活动的传播,需要探讨智能技术作为传播者与人类的交互在关系层面的意义;第三,要重视传统理论中关于人与技术之间的本体论鸿沟。在传统的信息传播结构中,技术、机器均被视为用来完成传播行为的工具、中介,传播理论当然“以人为中心”。随着人工智能技术的发展,机器开始拥有更强的交流性,“以人为中心”的思维和理论正不断受到新技术的挑战。越来越多的研究者开始采用人机交流/传播(Human-machine communication, HMC)视角重新界定传播主体。人机传播认为机器逐渐开始扮演传统意义上人类的角色,人与机器之间的交流也会建立和影响社会关系。

社交机器人趋向“类人化”发展,越来越像一个真实的人类。人机交互常常成为人与“类人”的信息处理过程,智能机器的物质形态朝着“像人”的目标发展。物质性的机器人既包括那些无形的软件应用(比如在信息传播领域,社交媒体上的社交虚拟机器人、聊天机器人很流行),也包括许多拥有“头脑”和“身体”的服务型机器人(亦即有了人或动物的形态)。20世纪70年代日本机器人科学家森政弘(Masahiro Mori)提出的“恐怖谷”(uncanny valley)理论产生了广泛的影响。“恐怖谷”本是来源于心理学的理论,被用于机器人的语境中,机器人外表酷似人类,但并没有给人带来亲密感,于是形成了恐怖谷——随着机器人越来越像人类或某种动物,它就给人类带来越来越多的负面情绪和移情。如果机器人外表与人类非常接近,但它们的行为还不完全像人类,那将会给人类带来强烈的不安感。但是,也许这种接近性有一个范围,一旦接近到逼真甚至完美于人类的程度,传统的“恐怖谷”恐怕就不在了。50年前跟人类外表“非常接近”的机器人,距离今天的智能机器人的逼真外表,实在差距相当大。尤其是智能化使得虚拟数字人成为人类代理、机器人代理,其完美于人类的外表,已经不只以假乱真。根据英国兰开斯特大学美国加州大学伯克利分校学者的调查,运用智能软件合成的虚假面孔,比人类的真实面孔更受信任。

二、人机交互模式涉及的信息伦理与规制问题

人机交互模式与语言模型、行动者主体密切相关,而语言模型依赖数据,行动者主体的关键是主导性(包括自主性)等问题。

(一)人的数据化与机器的“人化”

人类正在不断被数据化。如上所述,生命的本质被视为计算的过程,世界包括人的生命,都是算法运算的结果。人类的情感智力也不过是算法。赫拉利(Yuval Noah Harari)在《未来简史》中宣称:大部分的科学机构都已经改信了数据主义。“我们可以将整个人类解释为一个单一的数据处理系统,而单个人类则充当其芯片。”数据化一切的潮流也驱动着传播学领域多方面的变革。数据主义观念号称正在创造新的价值观,并强调其变革是通过媒介实现的。人工智能技术其实就是实现数据变革的一种媒介、手段。

以生成式预训练GPTGenerative Pre-training)为例,它用无监督学习左右有监督模型的预训练目标,大大提升了语言训练模型的水平。GPT-3这样的语言模型,其信息检索和关联能力已经远远地超出普通搜索引擎和机器人爬虫的能力范围,而它带来了黑箱推理导致的信息泄露的严峻问题。目前显见的风险,就是模型可能会泄露其训练数据中的详细信息,如果公开使用经过私有数据训练的模型,则可能会出现问题。由于这些数据集通常很大、来源复杂,因此它们有时可能包含敏感数据,包括个人身份信息,如姓名、电话号码、地址等。

马斯克(Elon Musk)的人工智能研究实验室OpenAI开发的GPT-3成为目前智能领域最强大的智能语言模型,被当作人工智能领域的一座里程碑,标志着人工智能朝可理解人类并与人类世界互动的目标迈出了巨大的一步。它用人类数据计算出的结果,也超出了人类的想象。不久前,用户 BoppreH Hacker News上发帖称,尽管他一直非常注重保护个人信息,从未主动在网络上以任何方式将他的网名和真名联系在一起,但是当他向GPT-3输入他的网名想玩一次造句时,输出结果中意外地包含了他的真实姓名。“如果我在 Google 搜索结果或Facebook 上发现了我的个人信息,我可以要求它们删除,但 GPT-3 似乎不支持这样的操作。我们是否应该接受这们的情况:大型语言模型可能会泄露私人信息而我们没有追索权?”“我不太在意我的名字是否被公开,但我不知道它还记住了什么——政治派别?性偏好?我13岁的帖子?”智能技术的巨大进步,却带来了人类规则的巨大倒退?另一些通过人脸计算来揭示人的潜在的性取向、意识形态、政治派别的智能模型,也比比皆是。智能技术虽然在“社会化”,但尚不可能将人类道德规范、社会规则都吸收、内化,何况它们正在闯入的常常是人类规范史上、社会规则系统中都从未有过的区域,是全新的关系带来的全新的规则问题,即伦理问题。

在上述例子中,一方面智能语言模型正在努力提升机器的“记忆”,从而提升智能技术;但是,另一方面,机器的“记忆”带来的将是数据安全、个人隐私方面的严峻挑战,数据主义的“读心术”带来的比起过去所说的“隐私”要新奇得多、深入得多,边界早已扩展到了传统的规则与伦理之外。对于计算机来说,模拟人脑从而实现智能化,其中不可或缺的核心就包括准确的沟通、记忆和计算能力。GPT-3等语言模型通过其强大“记忆”突显了其卓越、超能,但是在现实应用中带来的全新矛盾,又导致数据科学希望通过减少记忆、让模型“遗忘”来解决它的风险。这本身就是不可调和的目标、是发展的悖论。目前数据科学领域通过大量的尝试来应对风险,主要是通过技术的方式改进数据集训练,比如来自谷歌、斯坦福大学、加州大学伯克利分校、东北大学、 OpenAI、哈佛大学和苹果公司的研究生人员,共同研究出使用“差分隐私”(differential privacy)的方法训练模型、训练减少记忆的模型——让模型“遗忘”一些隐私等等。

数据带来的隐性或显性的新型问题,也给人机关系中的伦理问题带来了全新的挑战。一方面,为了满足人类的无尽需求,技术正在开发更高级的智能,机器越来越“人化”“类脑”化;另一方面,随着人类被不断“数据化”,智能技术又要规避人类过于丰富详尽的数据,要为了符合社会规则剔除部分“类脑”的特征,比如“记忆”。

(二)人机交互中的行动主体:权力争夺还是相互构建?

人类向来宣称要做一切技术的主导者。但是,人机交互似乎正在超出传统的控制观,“交互”是发生于异质的行动者之间。

在提升智能质量方面,人是不可或缺的,人机的交互是极其重要的。Meta AI202285日发布了对话机器人BlenderBot 3,它能够搜索互联网,因此可以讨论几乎任何话题,可以融合不同的会话技能,如个性、同理心和知识,从而拥有长期记忆。随着与越来越多的人的互动,它从经验中学到的东西越多。但是目前它大规模开放的目的,是希望人跟它对话从而收集数据、建立模型快照,在自然对话的反馈中学习如何提高技能和安全性。在发布3天后,Meta AI的总结是:BlenderBot 的回复中有 0.11% 被标记为不恰当,1.36%无意义,还有1% 跑题了。与它交流的人必须是能接受冒犯性叙述、不故意触发机器人的冒犯性叙述的成年人。为了构建更适应现实世界环境的模型,聊天机器人需要从“野外”(而不是研究控制的场景)人们的多样化、广泛的角度学习。人工智能领域距离真正能够像其他人一样理解、参与和聊天的智能系统还很遥远,研究人员不可能在研究环境中预测或模拟每一个对话场景,这就需要通过人机交互来学习。

未来的人机交互及人工智能系统的明确发展方向,包含四个方面:主动的推荐,自主的学习,自然的进化,以及自身的免疫。其中机器/智能的自主是非常重要的问题,它包括四个层面:自主应具有记忆功能、能够产生直觉和联系,而不只是存储;自主应具有选择性,而选择具有单向性;自主具有匹配性、是双向的;自主应可以控制。对于机器来说,自主才能造就真正的人工智能。智能机器的自主能力,如今似乎正彰显了人工智能的发展程度,但发展恰恰又是双刃剑。按照目前的认识,智能机器自主程度,关涉人与机器的控制权问题,也包含着复杂的社会问题和伦理困境。人赋予机器以控制权,当人是控制机器的行为者时,人是掌控者;当机器自主决定时,人就失去了控制权;当人和机器共享决策权时,人是共同决策者。这里不仅关乎谁是掌控者以及由此带来的责任和义务的分配与承担问题,而机器人在中短期内尚不可能展现出道德能力。

智能技术在努力让信息和通信技术更加社交化,计算机能了解到智能环境中的在场者以及他们的特征、情绪、需求和意图,从而做出相应的反应。作为现阶段特别活跃的一类智能机器,社交机器人具有代表意义。机器依靠人类认知能力和社交能力的深度模型而展现出类似于人类的社交智慧,它们被称作社交机器人(social robot)。社交机器人延伸了人的“主体意识”和“思维”,在人类传播中不再是简单的媒体“中介”,而是能够在人类的物理空间和符号空间自主参与社交互动的主体。社交机器人目前尚处于开发的初级阶段。卡内基梅隆大学机器人研究所的报告,将社交机器人分成三种类型、或处于三个层次:位于社会中,嵌入社会中和社交智能。位于社会中的机器人,可以理解特定社会环境并作出反应,它们能够区分所处环境中的其他社交主体和不同物体;嵌入社交中的机器人,在结构上与特定的社会环境联系在一起,能够与人类和代理进行交互,并至少在一定程度上懂得人类的交互结构;社交智能型机器人是开发的最终目标,它们能够基于人类认知和社交能力的深度模型,表现出人类的社交智慧。

社交机器人在网络上的影响正在不断加强。有研究显示,在Facebook上,机器人对社交网络渗透的成功率高达80%,对大型枪击事件线上讨论的研究发现, 机器人在互动网络中具有显著地位。我们曾从不同角度对Twitter上的社交机器人在信息扩散中的角色和行为模式,以及与人类的交互关系进行过一些探究。例如通过纽约时报对香港 “修例”风波的系列报道在Twitter上的扩散为例,探讨社交机器人在专业媒体新闻扩散过程中所扮演的角色和行为模式,发现在两级传播中均有大量的社交机器人参与了新闻的扩散,但参与程度不一;从传播模式来看,社交机器人在一级传播中的参与度比在二级传播中高,社交机器人活跃程度高于人类用户,但影响力较低;社交机器人可以引发人类用户的转发行为,但密集的转发仍然发生在人类用户之间。以中国议题的分布与互动为分析对象,我们探究了社交机器人的行为模式及其与人类的交互关系。社交机器人可增加人类用户对于特定信息的接触,可以成功渗入社交网络,改变既有的信息交互结构,但同样地,在用户互动网络中,机器人可以成功地引发人类用户主动与之互动, 但人类更倾向于与人类交互。

社交机器人正在参与舆论的形成、使得社交媒体的信息环境更加复杂。它能凸显特定话题并构建事物之间的关联,比如在全球新冠疫情事件中,社交机器人在Twitter上参与新冠疫情的讨论、并进行议题的凸显和关联构建,它们对概念之间关联的构建与人类存在差异。它们热衷于转发低可信度来源的消息、却标榜为“事实”(coronavirustruth),与常常提及“谣言”却更重视信源可靠性的人类明显不同。对Twitter上与2022年北京冬奥相关的推文的研究发现,社交机器人的议程网络与人类议程网络在节点、结构上显示出高度的相似性,人类议程网络与机器人议程网络存在显著的正相关,人类与机器人之间存在网络议程设置效果。社交机器人也是议程设置的可能主体,社交机器人不仅可能会受到人类议程设置的影响,也有可能反过来对人类感知现实产生影响。通过对Twitter上社交机器人参与中国新冠疫苗的议题的研究,我们发现社交机器人的参与呈现立体化的模型,有传播者的主体特征。社交机器人账号在粉丝数量方面远高于人类账号,影响面不可小觑。与人类的语义网络呈现均匀、连贯交叉的特点相比,社交机器人的语义网络相对极化、零散且孤立,呈现了有目的性的宣传输出特征。

总体而言,人类仍以传统的文化、惯常的思维去判断自身与这种新型技术的关系。在人类现阶段的认知、关注中,人机交互中行动者呈现了显性或隐性的权力争夺关系——技术带来的传播/交流主体属性的争夺。本研究认为,人机交互的最关键并不是权力的分配问题,而是人类要革新思维重新面对一种全新的关系、全新的伦理。

三、讨论与结论:新型人机关系与“滞后”的伦理观

智能技术在融入人类社会的过程中不断被“社会化”、人类则被技术化,这不是一种功能性的改变,而是一种结构性的变革,需要创新的理论思维。智能时代的人机关系,已经难以落入传统的技术与人、与社会的关系的窠臼。正如著名媒介伦理学家克里斯琴斯所指出的:传统的伦理方法,均已不能适应数字技术以来的传播伦理问题。我们不是要对原有的伦理进行更新,而是要从理论上重新构建(re-theorized)。

(一)智能与社会的关系:谁是决定者?

关于技术与社会的关系,比较有代表性的理论包括技术决定论、社会决定论、技术社会互动论。

20世纪20年代提出“社会变迁”理论的美国社会学家奥格本(William FieldingOgburn), 认为技术创新带来了社会的变迁。他的技术对社会有重要影响的思想,在其后被进一步发展。麦克卢汉把技术看作是人的延伸,认为技术、媒介对人类精神心理结构和社会组织方式产生了巨大影响,远远超过了其负荷的人类价值和社会属性。在互联网技术、智能技术兴起的近几十年内,“技术决定论”已经成为最有影响的技术社会理论。哈贝马斯把“技术”作为一种意识形态加以批判,认为技术作为“第一生产力”消解了人们一切交往行为。在技术自主性问题上,以埃吕尔的思想最有影响,他认为现代技术已成为一个系统,在这个系统中,占据主导力量的是技术的内在逻辑和自主功能,政治、经济、伦理因素主要是受到技术自主力量的强制影响,或者从属于技术发展的逻辑和目标,而不是对技术产生什么影响。但是“技术决定论”未关注到技术产品对人的自我意识、社区组织、日常生活、权力分配的特定影响。

紧随“技术决定论”之后出现的,是“社会决定论”。该理论假定技术和技术变迁是社会构成或者建构的产物,而非为某种自我发展的路径所决定的。“社会决定论”是在默顿以来科学社会学思想影响下,从20世纪60年代逐步增长的技术社会学研究中渐渐形成,先后有麦肯齐和瓦克曼的技术社会构成方法,以及拉图尔等人提出的行动网络理论。

在技术与社会的关系理论脉落中,在前述两个理论基础上,出现了“技术社会互动论”。美国的科技史学者克兰兹伯格(Melvin Kranzberg)提出的“克兰兹贝格第一定律”—“技术不好也不坏,也不是中性的”,确定了技术与社会是一种互动关系:技术不存在绝对的好与坏,而是取决于这项技术被使用的特定环境。技术发展常常发生一些环境的、社会的和人类的后果,超越了技术设备和实际应用本身的直接目的,而同一技术在不同文化环境和社会条件下采用可有完全不同的结果。这个理论有三个假定:一是技术与社会是分立的;二是技术构成社会,亦即技术对社会产生影响;三是社会构成技术,亦即社会对技术起到某种建构作用。卡斯特(Manuel Castells)认为,技术并未决定社会,而是技术具体化了社会;社会也并未决定技术发明,而是社会利用技术。在他的《信息时代三部曲:经济、社会和文化》中,他采用了技术社会互动论的理论方法展示了信息技术、经济、(民族)国家、政治、文化和社会的宏伟画卷。

虽然理论上已经有了较为进步的观点,人机传播的经典范式“计算机作为行动者(computers as social actors, CASA)”核心观点在于人机互动、交流的社会性,人会对机器本身做出社交反应,并把人际传播中的社交规则(social rules)应用至人机传播上来,但是在现实中,人们的观点却常常未能变革。在人机关系的诸多著述中,我们看到的大量论述,其价值观、伦理观仍然停留在谁是决定者、谁是掌权者的二元对立的思维中。

另一方面,我们仍需要在上述理论中进一步拓展。技术与社会的互动关系,其中核心目标是什么?无论怎样互动,人的需求、人的愿望是技术的目标。人机交互中,从过程来说,首先,通过人的价值取向有选择地获取各种数据,在输入过程中融合客观数据与主观信息,并结合人们的先验知识和条件;第二,在人机信息/数据融合的过程中,人加工的非结构化信息框架渐变为结构化,而机处理的结构化数据语法则趋向非结构化,智能传播过程逐渐变得人性化;第三,在决策输出阶段,由人脑中的记忆碎片与感觉接收到的信息综合在一起,经过机器“思维”过程形成“直觉”。从价值观的层面来说,人是输出者,机器是接受、适应者。

(二)人机时代的伦理观“滞后”及其思考

如前所述,智能技术、人机关系正在不断超越人类的伦理观念和适应能力。“物质文化”(技术)先于“非物质文化”(伦理观)发生变迁,伦理观等文化一时难以赶上技术创新。这种现象,被社会学家奥格本(William F. Ogburn)称为“文化滞后”( Cultural Lag),它是指物质文化与非物质文化之间的差异,是一种普遍的社会现象,因为物质文化倾向于快速地发展和变化,而观点和价值观比物质事物更难改变,非物质文化倾向于抵制变化并在更长的时间内保持不变。奥格本认为,大多数现代社会变革的源泉是物质文化,技术是驱动社会变革和进步的主要引擎。在技术飞速创新的背景下,文化需要时间来赶上技术发展的观念。

既然伦理观的“滞后”是不可避免的,那么我们就需要探究如何面对这种“滞后”?“滞后”会带来哪些问题和风险?有没有可能消解“滞后”带来的问题?

首先,人类制度、观念等文化滞后于物质技术文明,造成了一些社会问题,并不意味着我们要停滞物质技术的发展。物质是社会变迁、发展之源,这是人类必须正视的。智能技术集多种先进技术于一体,它是物质文明发展到今天的一种必然趋势,对于人类的生产生活都有重要的意义和影响。从伦理观的角度而言,肯定其在人类社会中的积极价值,是人机关系的基础。另一方面,也要认识到人机之间呈现人机互在、人机共生的新型关系,需要重构人机传播的模式和思维。

第二,我们要认识到滞后的价值观可能正成为智能技术发展的掣肘。正如艾尔斯伯格(Daniel Ellsberg)所指出的,“文化滞后”抑制了“我们指导技术并明智、合乎道德和审慎地控制技术的能力”。人类在新技术面前无所适从,不能就现代技术的适当应用快速形成广泛的社会共识,导致了错失良机、延缓发展,还可能会导致社会的分裂和社会冲突的上升,比较典型的如生物学界的一些技术,如干细胞技术被抵制、以及引发的伦理争议和冲突;而一旦人类意识到自己正与现实脱节,他们又可能以非同寻常的方式让自己进入新轨道,结果同样带来社会冲突的加剧,比如核能技术一旦被接受就加速了军备竞赛;当社会系统还没有准备好适用新技术时,新技术又会面临种种失序和风险,比如目前智能技术运用。

第三,只有跳出旧的文化,才能真正面对这场颠覆性的创新革命。智能技术比起历史上的物质文明,可能影响更加深刻、更加深远,人类尚难以预见其影响的全部后果。就在不久前,类似于GPT-3BlenderBot 3以及当今的算法、算力,都还在科幻的范畴里。未来人们对智能技术的依赖、生活水平的提高、技术性失业、生产的智能化、信息沟通的智能化、生活的智能化等等,以及由此对政治、经济、社会、文化、生活、健康、环境的影响,更有甚之,对人的生理结构、人的思维结构乃至人性的影响,都是目前人类难以想像、无法预料的。比如,如果智能机器代替了人类的一部分甚至大部分机能,人类就只要使用一部分、少部分机能,这是不是会带来人的机能失调?智能技术的发明和创新,远远超过了人类之前对于技术期待的单一欲求,也因此带来未卜前途的风险。

第四,在智能技术发展的现阶段,就要努力使之提供较好的对人类的适应性。技术等物质文明,本质上是人为形成的。人类的心理结构对这些物质文明的适应性较差,但物质文明也可以提供较好的适应性。奥格本曾论及物质文化的成长也许越来越适应于人性,而不是相反。对于智能技术等伦理观念的滞后,也可以通过改变智能技术本身来适应人性。从阿西莫夫定律、“克兰兹贝格第一定律”,到区域联盟(如欧盟)、各个国家制定的人工智能伦理和规制,以及科技公司宣称的科技规范、用户和相关组织对智能技术责任的关切等等,都表明人类正在努力让智能技术为人类提供更好的适应性。

第五,人类对智能新技术的滞后性调适,需要人类摆脱传统的认知、知识和理论的窠臼,最重要的是需要新的信息伦理范式。这种新型伦理范式,要建立在新的信息传播的理论基础之上。理论的革新要从结构层面、功能层面,对智能技术与人类关系进行宏观的建构,同时对技术的设计与应用进行中观层面的探析和微观层面的论证;进而从哲学层面对智能技术与人类关系中的本体论、认识论和方法论进行哲学层面的凝炼。

人类始终需要理论的想像力。在计算机技术发展中,人类仍然在模拟人类自身。此前有研究发现了“计算机作为社会行动者”范式(CASA, the Computers are Social Actors Paradigm),人类将人与人交流的准则运用到与技术的交互中,这样的交互又引发人类做出社会性的反应。例如,人类会将性别、国籍、声音等特定的人类属性,通过编程设置赋予到机器身上,而机器的这些特性,会影响人们对之做出的认知与社会性反应,这可能是因为人类大脑主要依据与人类相似的特质来判断其角色身份。人类以权力掌控者的自信,以定势思维推进着技术的发展,忽略了薛定谔所说的技术的偶然性,也未及思考技术脱离人类掌控进入自我轨道的可能性。这些以及更多的议题,都是影响到技术与人类关系结构层面、功能层面的问题,当然,也会进一步影响到宏观哲学层面。意大利物理学家弗朗西亚(Giuliano Toraldo di Francia)曾说过:“我们需要创造适合人类的技术;我们也需要创造适合技术的人类。”

[本文系国家社科基金重大项目“智能时代的信息价值观引领研究”(编号:18ZDA307)的阶段性成果]

(作者系清华大学新闻与传播学院教授、博士生导师)

原文刊载于《新闻与写作》2022年第10

转自:“再建巴别塔”微信公众号

如有侵权,请联系本站删除!


  • 万维QQ投稿交流群    招募志愿者

    版权所有 Copyright@2009-2015豫ICP证合字09037080号

     纯自助论文投稿平台    E-mail:eshukan@163.com