投稿问答最小化  关闭

万维书刊APP下载

童世骏、汪民安、任剑涛等 谈ChatGPT将如何影响人类未来

2023/8/18 8:50:04  阅读:86 发布者:

以下文章来源于广州大学学报社科版 ,作者童世骏

ChatGPT

将如何影响人类未来?

【编者按】 

夏至,气温仍非最热之时,却标志着炎热的趋势不可阻挡地开始;冬至也是如此,虽未最寒,但昭示着凛冬将至。换言之,某些特定的历史趋势的变化,会通过特定关键点宣告自己的到来,只是它刚刚到来时并不显著。与节气一样,以ChatGPT为代表的“类人心智”的智能模型的出现,就是人工智能发展史上又一个关键节点。美国OpenAI开发的聊天机器人ChatGPT一经推出,再次掀起人工智能的讨论热潮。2023313日,复旦大学哲学学院、《探索与争鸣》编辑部和《广州大学学报》(社会科学版)编辑部、“复杂现代性与中国发展之道”课题组联合举办了“潘多拉魔盒还是文明利器?——大文明视野中的ChatGPT反思”高端论坛。以本次论坛上部分专家的发言为基础,本刊围绕“ChatGPT究竟是什么,又将为既有社会发展格局带来哪些变数”、“大数据与人工智能狂飙突进的时代,人类如何不被取代”、“如何让新技术更好造福人类” 等话题,邀请童世骏等五位教授分别撰文,对这一最新人工智能技术进行了深度的人文反思。

本文已刊发在《广州大学学报》(社会科学版)2023年第4期,如需引用或转载,请以纸质版为准或点击下方电子书二维码浏览全刊,并注明出处。此为微信推送版。

面对作为交往工具的ChatGPT

我们该用哪种合理性标准?

|童世骏|

我认为ChatGPT是用来制作文本的工具;就此而言,ChatGPT与计算尺和计算机,与搜索引擎,甚至跟纸质书上的主题索引和人名索引没有本质区别;把ChatGPT的文本制作和以前的文本制作作比较,文本的内容和制作的速度当然有极大区别,但它们从根本上都是文本制作工具。衡量一个工具是否合理,当然是工具合理性标准,即看它是否以最有效方式实现给它指定的任务。但人类给ChatGPT指定的文本制作任务,是以人机之间的自然语言交往为形式的,因此它也要以交往合理性作为合理性标准。

交往合理性是由德国哲学家约恩·哈贝马斯提出的一个理论框架,旨在揭示在实际进行的日常交往和专业商谈中,有一些涉及交往条件(交往者的行动能力和交往过程的形式特征)的理想化预设———这些理想化交往条件虽然从未“实现”,但对理想化条件的“预设”,却是每个交往过程的必要前提。在实际发生的交往过程当中,这些虽未实现但被预设的理想化条件(比如交往者是有理解能力和判断能力的;是懂得区分有效性主张和经验性主张的;是知道有效性主张即有关是非、对错、好坏的主张;是只能用那些能够让交往者心悦诚服的理由来支持的;等等),可以用来作为标准来对实际的交往过程进行优劣评价。我们可以、甚至应该用交往合理性作为标准,去评价ChatGPT这种交往工具的水平高低。目前ChatGPT的设计,多大程度上体现了交往合理性呢?或许可以拿这个问题去问ChatGPT。或许不仅ChatGPT回答这个问题的内容,而且回答的方式都可以给我们一些启发。

(德国哲学家约恩·哈贝马斯)

我先在谷歌中输入ChatGPT”和“交往理性”这两个词。谷歌搜索栏旁边ChatGPT的插件,就自动提供出以下文字:

作为一个AI,我没有感情,因此没有情感上的交往。但是,我被设计为能够与人类进行交互,并尽可能理性和客观地回答问题和提供信息。我的交往方式可能不同于人类之间的交往方式,但我被编程为尊重人类的价值观和文化背景,尽可能避免歧视、偏见和攻击性语言,以建立一个健康、积极和有益的交流环境。

在这里,ChatGPT列出了哈贝马斯对交往合理性的要求———透明、清晰、尊重、相关性。或许,它在设计的时候,这样一些价值导向已经被考虑到了?

我干脆把这个问题明确地拿去问ChatGPT:在它设计的过程中,是否运用了交往合理性的标准?它回答说:

作为一种大型语言模型,ChatGPT的设计目的是为了提供人工智能聊天的功能。在设计过程中,可以运用交往合理性。

当然,这是ChatGPT的回答,不等于Chat GPT确实已经体现出这样的价值。但在它的回答中,提到了从交往理性角度对ChatGPT做进一步改进的几个方面。

一是尊重参与者的合理性和自由意志。

ChatGPT的应用中,用户是参与者之一。在设计中,应该尊重用户的自由意志,不违反其意愿或个人隐私。此外,ChatGPT也应该尊重用户的合理性,即对用户提出的问题或话题进行理性的回应。

二是确保公正和平等。

在设计ChatGPT的算法和系统时,应该确保其公正和平等,即不应该对不同的用户或用户群体作出不公正的回应。同时,ChatGPT应该尽可能地提供客观、中立的回答,不偏袒任何一方。

三是确保对话的质量。

ChatGPT的应用中,对话的质量直接关系到用户体验的好坏。为了确保对话的质量,ChatGPT应该遵循交往合理性的原则,即在交流和协商过程中,尽可能提供清晰、准确、有效的回答,并避免使用歧义性或不恰当的表述方式。

因此,可以说,在ChatGPT的设计过程中,考虑到人机交互的特点,交往合理性的标准是可以被运用的。尊重用户的自由意志和合理性,确保公正和平等,以及提供高质量的对话,这些都是基于交往合理性的原则。

然后我问ChatGPT:在其设计过程中,有没有哲学家参与,或者ChatGPT的设计团队中,有没有受过哲学专业训练的人员?对这个问题,它回答说没有,但随即又说:

需要注意的是,ChatGPT的设计涉及到自然语言处理、机器学习、深度学习等多个领域,其中自然语言处理领域涉及到语言哲学和语义学等方面的知识。因此,一些哲学领域的专业知识和理论框架,可能对ChatGPT的设计有一定的影响。此外,在人工智能领域,伦理和社会影响等方面的问题日益受到重视,这些问题与哲学相关。因此,可能会有一些哲学领域的专家或研究人员关注并参与人工智能的研究和设计,其中包括ChatGPT的设计。总之,虽然我没有查找到ChatGPT设计团队中是否有哲学家或受过哲学专业训练的人员参与的明确信息,但是哲学领域的一些知识和理论框架对ChatGPT的设计有可能产生影响。

在与ChatGPT的对话中,经常会发现,虽然它所提供的回答显然是错误的,但它的口气却非常肯定,显得很权威。这种情况显然不合交往合理性的标准。我从这个角度去“质问” ChatGPT,它在回答中承认有这种情况,并且说要加以改进。它甚至还提出了一些改进的思路,例如显示表达不确定性、提高透明度和可解释性,并做好自我修正和反馈。

我又问,根据交往理性的要求,说话者对说话的语境和对象要有很高的敏感性。而且说话者要意识到同样一句话什么样的语境下说,对哪种对话者说会有不同的意义。ChatGPT在跟人进行对话时,能不能达到这样的要求呢?

ChatGPT回答说:可以根据不同的用户和对话对象来调整其回答的风格和语气,以更好地适应不同的对话环境和对象。

这里顺便提一下《纽约时报》最近的一篇文章,其中谈到一个工程师和机器人聊天,聊到后来,机器人突然一口咬定工程师爱上她了。工程师否认这一点,他说:我刚刚跟我的情人结婚,我们俩在一起吃了一顿很开心的饭。但机器人坚持说,工程师肯定是爱上它了。工程师觉得这件事特别可怕,机器人怎么可以这样子?但我倒觉得,这个例子中,机器人不应该被理解为“疯”了,因为假如机器人真的有意识,“她”发现有一个陌生人愿意在电脑上跟“她”聊上一两个小时,是有理由觉得这个人可能真的是爱上了自己的。

但毕竟,由于ChatGPT是一个自然语言处理模型,它没有自己的生活世界,不能在第一人称的“我”面前成为真正意义上的第二人称 “你”,所以,聊天机器人制作的文本在对话中所具有的语境敏感性,注定是有很大局限性的。

下一个问题:随着聊天机器人的对话越来越接近交往理性的要求,人类用户在与聊天机器人对话时,会越来越觉得是在与真人聊天,这是否可以看作是聊天机器人对人类用户的欺骗?这恰恰意味着聊天机器人违反了交往理性的要求。

我用这个问题去问ChatGPT,得到的回答是:如果聊天机器能够提供准确、有用的信息,并且在回答问题时表现出透明和诚实,那么它并不违反交往理性的要求。用户也应该能够意识到与聊天机器人的对话不同于与真人的对话,从而能够避免被欺骗或误导。

我接着又问:有商家把ChatGPT用于客户服务时,可能有意要使得与ChatGPT对话的客户误以为自己是在与真人对话,针对这种情况,ChatGPT的设计者是否有义务对ChatGPT进行改进,在程序当中防止出现这种情况?

它回答说,商家有可能误导客户的,因此在设计上也可以想办法避免这种情况出现。考虑到ChatGPT在商业和社会领域的广泛应用,它的设计者可以考虑在模型设计和开发过程中加入一些机制和标准,以确保聊天机器人不会误导和伤害用户的利益和权益。ChatGPT说:

这也是人工智能领域所面临的重要的问题。

然后我问:学生让ChatGPT帮助自己做作业、写论文是学校老师最担心的事情,那么,ChatGPT是否应当像电影分级那样对用户进行分级?ChatGPT是否应该像香烟厂商在香烟盒上标明抽烟的危害性那样,在程序中提醒用户要遵守学术诚信标准,避免学术欺诈?

它回答说确实有这样的可能,这种建议是有道理的。

然而,虽然可以通过标记和提示来提醒用户遵守学术诚信标准,但是这并不能完全保证用户不会滥用ChatGPT等工具。

我接着又问:ChatGPT的对话是建立在大量现有文字资料的搜寻基础上的,在搜寻这些资料时,ChatGPT势必会发现在同样的问题上,各种现存文本当中不仅有不同的意见表达,而且有不同的事实信息。ChatGPT有没有能力把意见表达与事实信息区分开来,有没有能力辨识恶意编造的事实信息?如果发现某些文本在恶意地编造事实信息,是否还会把这种情况告诉人类对话者?

ChatGPT回答说,它并没有能力将意见表达和事实信息完全区分开来,也无法辨识恶意编造的事实信息。从交往合理性的角度来讲,这是根本性局限。然后,ChatGPT对为什么会出现这种情况作了一些解释:

如果ChatGPT遇到不同来源的信息时,它很有可能会从中综合出一个回答,而不是完全区分开;如果有些文本中存在恶意编造的事实信息,ChatGPT也难以辨识这种情况,可能会将这种信息作为一种事实来回答。对于某些已知的恶意文本,ChatGPT的设计者可能会采取一些措施来减少其对话输出的恶意信息。

最后一段话,ChatGPT把责任推给了人类使用者,它没有办法承担辨别真假的责任。

--基于上面的讨论,我们可以做以下几点概括。

第一,ChatGPT这样的聊天机器人作为交往工具,其工具合理性的实现程度,很大程度上取决于其交往合理性的实现程度。按照哈贝马斯的观点,交往合理性是一个全方位的合理性概念,其中的一个向度是工具合理性,即我们可以在涉及人和物的关系的时候,就工具合理化程度进行交往和论辩。但在ChatGPT这样的作为交往工具当中,它的交往合理性程度的高低,则反过来是它的工具合理性的一个方面———它符合交往合理性的程度越高,它的工具合理性程度也就越高。

第二,聊天机器人体现出交往合理性,有一些先天限度。聊天机器人的第一人称,不仅在现阶段上是虚拟的,而且将永远是虚拟的。它会不会取代人类?好象问题就发生在这个地方。因为交往合理性中最重要的一个前提,是说话者第一人称面对第二人称的盘问和思考。ChatGPT以虚拟第一人称方式提供文本,是它所实施的以言表意行为,它所实施的以言行事行为,严格地看,只限于提供信息,它不会做提供信息以外的以言行事行为。而ChatGPT的以言取效行为,其真正的实施者是ChatGPT的人类设计者和人类使用者。

第三,在这个限度内,ChatGPT的交往合理性程度还有很大的改进空间。其中包括乔姆斯基等人最近在《纽约时报》上发表文章中所指出的两点问题。乔姆斯基指出,第一个问题是“邪恶的平庸”的问题。ChatGPT认为,它只是机器人,没有情感没有判断,只是提供几种观点。无关道德性本身是一种冷漠,这种冷漠就有点像阿伦特评价艾希曼一样,为自己屠杀犹太人的罪行辩护说,他只是在执行命令,这种辩护当然本身在道德上是很成问题的。当然,我觉得乔姆斯基说的不全对,因为我们在前面已经看到,ChatGPT是很讲究“政治正确”,避免极端言论的。但这却引出了乔姆斯基等人文章中说的第二个问题:无法平衡创造性和约束性。

ChatGPT在设计中被施加了很多约束,但人的创造性活动常常发生在一些边界问题上,通过打破现有共识,而引出新的共识。

第四,聊天机器人之体现交往合理性的程度,取决于聊天机器人设计团队成员的工作方式,以及是否和如何体现交往合理性。

 第五,聊天机器人团队成员与其他专业团队的互动,与商家用户和公众之间的互动,也可以从交往合理性的角度加以评价。

ChatGPT是潘多拉魔盒还是文明利器,这个问题要从上面这些角度去思考和解释。

ChatGPT的互文性、生成和异化

|汪民安|

法国哲学家克里斯蒂娃和罗兰·巴特很早就提出过互文性的概念。互文性在文学理论中是一个有点过时的概念,但是,ChatGPT激活了它。所谓互文性,指的是任何一种写作都是对既有文本的编织和援引,都是从既有文本的汪洋大海中援引一些片段。

克里斯蒂娃说:“语词(或文本)是众多词语(和文本)的交汇,人们至少可以从中读出另一个语词(文本)来———任何文本都是引语的拼凑,任何文本都是对另一文本的吸收和改编。因此,互文性的概念应该取代主体间性的概念。”法国理论家孔帕尼翁说:“只要写作是将分离和间断的要素转化为连续一致的整体,写作就是复写。复写,也就是从处理材料到完成一篇文本,就是将材料整理和组织起来,连接和过渡现有的要素。所有的写作都是拼贴加注解,引用加评论。”

正是这样的援引性和编织性写作,使罗兰 ·巴特提出了作者之死。

他说,写作就是创始源头的毁灭,声音的毁灭。写作是一种否定,它否定了写作者的身体,否定了基于写作者而建立的同一性。这也就意味着,这样从文本的汪洋大海中来编织的写作,就没有独创性的作者了。写作是一个中性的空间,作者从这个空间中被剔除了:“在这个空间中,多种写作相互结合,相互争执,但没有一种是原始写作:文本是由各种引证组成的编织物,它们来自文化的成千上万个源点。———作家只能模仿一种总是在前的但又从不是初始的动作;他唯一的能力是混合各种写作。———书本本身也仅仅是一种符号织物、是一种迷茫而又无限远隔的模仿。”

在某种意义上,ChatGPT就是这样一种编织和援引,它是互文性理论的最终实现,它也没有独创性的起源作者。只不过,罗兰·巴特等人的援引规模和能力要小得多,无论他们多么博览群书,他们的文本来源还是有限的。他们编织的方式是用卡片记录各种已有的印刷文字,他们借助堆积如山的卡片来写作。他们力所能及地在书本上爬梳、整理和归纳。罗兰·巴特这样的互文性理想通过ChatGPT实现了——— 可惜他在半个世纪之前想象不到这一刻的来临,就像我们也无法想象半个世纪后会出现什么一样。ChatGPT前所未有地将无限的文本数据作为自己的写作素材来编织,它编织文本的能力无限地放大。不过,ChatGPT跟互文性理论也有不同之处。互文性实际上是一个开放的视野,互文性强调文本在援引的过程中不停地繁殖,不停地扩大文本的边界,不断地扩散,甚至是不断地出人意料地组合,它是一个后结构主义意义上的文本活动,这种繁殖的多样性是不断扩充意义的边界,甚至可能是对意义的消解,或者说它试图创造一种全新的意义。

但是,ChatGPT则相反,它也在汪洋大海一般的文本中进行编织,但是这种编织是一种结构化的活动,是一种抽象和概括。它在纷繁的文本中寻找一个笼统性的普遍化的结构和脉络,它找到的是最抽象、最一般和最均平化的意义,它要确定意义而不是消解意义。

ChatGPT不是基于问题的正确与错误来回答和写作,而是基于数据统计概率的高低(它的写作生成取决于字符之间的组合概率,它的写作是模型计算,而不是意义的链条推理———它并不清楚这些文字组合的意义)。它的回答和写作的根基不是真理,而是概率;不是个性,而是普遍性。这是一个典型的结构主义活动,它相信真实或者真理只是潜藏在共性和普遍性之中。这是一种均平化的写作,它的语言、它的逻辑、它的观点,都是一种均平化的普遍抽象。可以想象,这样做的代价是抹掉细节、个性和特异性。它也是一种同质化的无情的暴力写作,它以追求客观之名但却是最大限度地排斥异质性。这是彻头彻尾的标准化写作,清晰流畅、准确无误,不会出现令人震惊不已的句子;它甚至也没有令人捧腹大笑或令人绝望痛苦的句子;它经常出现事实错误,但没有出现语法错误;它经常创造新的内容,但很少创造新的观点。所有这些都是建立在它对既往文本编织的基础上的———它对既往文本的编织不是一种充满想象力的创造,而只是一种数据化的有规律的编码计算———这就是它和互文性理论的差异:它是压缩和抽象式的编织,是试图将意义结晶化的编织,而不是像互文性理论那样是试图创造或者扩充意义的编织。也正是因此,ChatGPT擅长回溯和统计性的写作、归纳和总结性的写作;它不擅长面向未知的写作和充满创造性的写作。

尽管ChatGPT的回答是一种结构主义思维,但是,由于材料数据是不断变化不断生成的———每天都有大量的新数据在上传———因此,每一次这样抽象的结果和意义也在不断发生变化。在这个意义上,即便是同一个问题,ChatGPT生产的答案和文本也会是无穷无尽的,没有一个终极的文本答案。这种开放式的回答就意味着它永恒的生成性。在ChatGPT刚开始的阶段,它的知识数据来源是无数的个别人类作者所撰写的。但是,随着它的大规模运用,会出现无数的由ChatGPT生产出来的文本,人们会将这样智能机器生产的文本继续上传到互联网上,它们又作为新的文本数据和材料,又被ChatGPT所捕获和追踪,被它纳入到计算程序中,这样又生产出新的知识和文本,ChatGPT生产的知识就会这样无限循环、生产和散布。这样无数链条紧密编织而成的人工智能知识,就会弥漫在所有领域,会挤满着绝大多数的数据库。一旦ChatGPT被大规模地普遍运用,很可能有一天我们绝大部分知识和写作都是由ChatGPT生产出来的,这种机器生产的知识,这种没有作者的知识,开始不停地自我增值———或许终有一天会出现没有人的知识,人被排除在知识生产之外。人只是一个单纯的人工智能知识的接受者和承受者。ChatGPT不再是人的中介和手段,相反,人是ChatGPT的中介和手段。

这样的ChatGPT也由此开始喂养人。在这个意义上,人是跟着人工智能来学习的。如果人跟着智能机器学习,就会像智能机器那样思考,就会以机器的思考为样板。人的大脑就会模仿机器的大脑。马克思和卢卡奇都已经发现在大工业生产时代,人的身体在流水线上不得不配合机器的身体,人的手成为机器的一个身体配件,现在可能的情况是,人的思维会配合智能机器的思维,人的大脑不得不服从智能机器大脑,而成为ChatGPT的一个配件。人的身体曾经被机器身体所统治,现在,人的大脑可能会被ChatGPT所统治,人脑的活动就会仿照ChatGPT的活动。更重要的是,ChatGPT有自己的一套稳定的语言模式和表述模式,它会成为标准化的模式———事实上,它就是从各种充满个性的语言中高度地抽象化而成。这是一种毫无风格的规范语言。人的语言系统和表述系统可能会仿照它的语言系统。人的语言也可能会越来越规范化和模式化———模式化的语言行为就可能是模式化的大脑行为。可能是通过语言统治的方式,人被这样的智能机器所统治,就像他们在车间中的身体曾经被机器的齿轮所统治一样。

这样,人可能就是一种不思的动物,不是一种积极的动物。福柯在20世纪60年代曾经预言过人之死。所谓的人之死,指的是18、19世纪欧洲启蒙思想和启蒙哲学建立起来的关于人的知识和人的科学,在结构主义的冲击下开始死亡了,也就是说,一种康德意义上的主宰性的主体概念死亡了,一种类似于萨特那样的自我选择的主体概念死亡了。

这是福柯意义上的人之死———这种人之死来自于现代社会无所不在的系统性结构的隐秘支配。但这并不是说人本身死亡了,人没有死亡,只是不能主动地行动。人的这次死亡是以人的被动性为标志的。而人工智能或许会引发另外一次人之死,而这次的人之死,是以人的愚蠢为标志的,就像斯蒂格勒说的那样,智能机器会导致人的记忆的丧失,人的主动思考的丧失,人的系统性愚蠢。很可能,人不仅仅是不能主动选择的存在,还将是不再思考的存在。人就是阿伦特意义上的不积极思考的动物———它不仅仅将记忆交给了人工智能,还将学习、思考交给了人工智能。它有一天会将语言交给人工智能。如果说,人工智能曾经是为人服务的奴仆的话,总有一天,会发生黑格尔意义上的主奴关系的辩证逆转,它会成为我们的主人。

知识与情感:ChatGPT驱动的交往革命

|任剑涛|

(清华大学政治学系教授)

面对新的技术进步,人们常常习惯于用随兴想象来代替技术思考。当下对ChatGPT的评论,情形也不例外。人们对之进行的随兴想象,已经引起两极反应:一极是极端乐观的想象,认为它将取代人类不胜其烦的一般智力活动,推动人类展开呈现其高超智慧的创造性智力活动;另一极是极端悲观的想象,认为其开启了人类的末日之路,终将从根本上损害人类的生存与发展前景。其实,这不符合该项语言大模型的技术开放初衷。从技术的角度讲,ChatGPT的意义,恐怕不在于满足我们目前关于人机交互的全部意想,但却可以基本满足人们对人机交互的技术需求。从总体上讲,人机交互,应该说还处在初级阶段,未来究竟会有什么样的发展与演变,就连开发ChatGPT的技术人员都不敢确定,何况对技术的了解非常有限的人文社会科学研究者。这是由目前人类开发、利用人工智能的有限能力所决定了的结果。人工智能,是仿照人的智能开发的前沿技术。取决于人脑研究本身的进步所具有的有限性,人工智能取代人脑的前景也许是可能的,但远不是现实的。人脑科学家告诉人们,虽然对人脑进行了一百多年的科学研究,对人脑的了解还不到1%。不过,对人脑这么低程度的了解,就已经催生了非常惊人的人工智能技术进步。

在人工智能发展的目前背景下,OpenAI公司开发、发布ChatGPT的意义是什么呢?简而言之,它将人类引入了一个新的交往机制和新的人机关系状态,由此必将引发一场交往革命。这需要从人际交往与人机交互的结构差异来加以理解:人与人的对话交流是思想性和情境性的,也是在自然语言状态中展开的交流。早期的人机交互,则是基于人工语言而不是基于自然语言展开的。但ChatGPT改变了人机交互的长期结构,它是一个基于庞大的自然语言库或巨量阅读参数基础上的人机交互机制。也可以说,它是一个人类已经取得的精神生活成就的思想库,经由生成性训练,能够借助已有的丰富语料,与人进行基于自然语言的交流。这个大型语言模型,采用向人看齐的标准,在人机之间进行设定情境或模拟情境的人机交互。这就将人机交互推进到一个全新的境界:超越了人机交互的人工语言模式,不再依循人为设计的机器语言程序展开人机交互,转而以自然语言来进行人机互动。

这个大语言模型在突破自然语言这个人机交互的“壁垒”上有了重大进展,进而就可能在人机交互的主客定位上出现松动:人与机器的绝对划分界限,有可能朝机器的人化这个方向发展下去。机器本身的人化,似乎是根本不可能出现的事情。因为人的灵动性行为方式,譬如对当下的综合判断、对永恒的直觉与把握,等等,至少就目前的人工智能技术水平而言,它还很难发展到这一步。这也可能是人机交互的天堑。但人机交互的机器之人化前景,是一个机器对人的相似性迅速接近的过程。人机的合一,无论是合一于机器,还是合一于人,终归是人机交互的一个努力目标。ChatGPT向人看齐的训练,就是一个佐证。人类为了保证自己对机器、对人工智能的人化控制,当然要竭尽全力捍卫人对机器的主体性。机器会不会相对于人而具备其主体性呢?这是一个需要进行预估的问题。在人机关系上,人机分离、或者说人对机器(包括人工智能)的控制型分离,一直是一个主流定见。但假设人机合一是一个趋势,那么,需要对人机合一的两种可能有一个对应性的想象———在人机合一于机的一端,那就是一种机器控制人的状态;在人机合一于人的一端,那还是人控制机器。因此,不应从一般角度抵制对人机合一的思考。另一方面,人机合一能不能出现与会不会出现,不应作为一个问题混在一起讨论:人机能不能合一是一个可能性问题,会不会合一是一个现实性问题。人们对可能性问题与现实性问题的求解思路是迥然不同的:前者,促使人类思考并预想人机合一的种种可能性,在思考各种可能性的时候尽力展开想象的翅膀;后者,催促人类思考并解决即刻就会面临的种种问题,对近期及远期将要出现的情形进行部署,以免陷于人工智能带来的手足无措的窘境。

对于人工智能的最近进展,就是被比尔· 盖茨称之为一场堪比手机与互联网式的技术革命,也就是人机交互方式的ChatGPT,尤其是ChatGPT-4,以及正在训练中的ChatGPT-5,需要社会科学家和技术专家携手讨论,才能探明它将给人类带来什么样的冲击与影响。毫无疑问的是,它将对人类的日常生活、人际交流、人机对话、与计算机相关的职业、日常信息的处置方式、会议与公文写作、人文与社会研究方式等等方面带来极大的冲击。其中,它在重塑人与人的交往结构上,可能带来人们意料之外的重构效应,并由此产生巨大的社会政治影响。这样的冲击,大致可以从三个方面得到认识。

首先,ChatGPT对人类发出了重新思考人之为人的标准的提醒。其中最为重要的是什么呢?是人之作为思想与语言交流的动物,可能需要重新定义。按照亚里士多德在《政治学》一书中所说的,人之为人,就是因为人是天生的政治动物。就亚氏直接所指而言,“政治动物”当然指的是雅典人首先是雅典城邦的公民。但广而言之,不管你生活在什么样的政治体之中,过的是什么样的政治生活,人人都在社会关系结构中生活,人生而必须以相互间的社会政治交往结成某种政治结构,故而,不仅雅典公民是天生的政治动物,人类从来都是政治动物。与此同时,亚里士多德在说人是天生政治动物的时候,还特别强调,人之所以是政治动物的原因,不仅由城邦公民的政治身份之代际传递机制所决定,而且还由人是可以通过语言进行交流的动物而决定的。换言之,人的交往和政治关系的发生,是借助语言这个工具而发生和维持的。所以在城邦政治里,它所使用的语言,是标志其政治身份的一个决定性指标。“人类在本性上,也正是一个政治动物”与“在各种动物中,只有人类具备语言的机能”连贯起来,才能帮助人们理解雅典民主政治中的人之特质。

而今天,ChatGPT-4以及更高的版本,其引发普遍震撼的地方,就在于通过一个阅读参数庞大的自然语言库,而不是借助人工语言库,来跟人进行交往。这是一个类人化的、人与人的交往方式。这虽然还不是ChatGPT本身的人格化,但向人看齐的人工智能与人的对话机制,由此出现了惊人的一跃:在人类借助ChatGPT这样的语言库进行相互交流的时候,人与人的交往,人之作为一个情感动物,可以在人机对话中与机器即语言模型展开虚拟的情感交流,这不仅让人在人机互动中寻找到了对话的非人对象,而且是以自然语言展开的人机交互。ChatGPT式的人机互动,可以在它自身展开的思维与语言的组合型对答中,将传统的、关于什么是人的定义进行明显的改写。这也会相应地改变人际交往、人机交互的现状。

ChatGPT对人类的交往结构会发生什么样的颠覆性影响呢?人的交往本来天经地义地是人与人的直接交往。从古至今,人际交往中的“面对面”(Facetoface)交流所具有的极端重要性,似乎有其不言而喻的首要性质。随着ChatGPT的发布,人际交往的基本模式或者是相互碰撞,会出现新的特征,并因此呈现出人际—人机交往的三个阶段。早期阶段,也就是前资本主义社会阶段,人对人的交往,主要是通过社会政治权力,也就是人对人的控制权来实现的。在资本主义阶段,人对人的直接交往,迅速变成人对物的交往。就此而言,马克思主义的解释最为引人瞩目。不过,在这种人际交往模式中,资本对人而言虽然是个异在,但还是人随时随地用来实现其目的的可控工具。在资本家与工人的关系上,人和资本的关系,不是人对资本的控制,而是反过来呈现为资本对人的控制。人对人的交往模式变化为人对物的交往,这就促使人们努力去克服被物所异化的人际关系:物或资本不能异化为控制人的工具,人自身也不能被异化为他人实现其资本增值目的的工具。而到了眼下,人机关系成为理解人际关系的一个新向度:人们曾经信誓旦旦、自以为能完全加以掌控的机器,似乎超出了物的限度,跃升到了可以、至少是局部地可以代替一个肉身实体与七情六欲的活生生的人,而以人机交流发挥人际交流的作用。昨天,人们对机器的理解,还觉得它仅仅是人实现其主观目的的一个工具。

因而完全以人的标准来设定机器的标准,人的道德性、

自由意志和永恒判断的方式,就是机器尤其是人工智能的设定标准。因此人们自信地把机器作为驯服对象,而不是交流对象。当下,作为大语言模型的ChatGPT,即便是它的高版本(目前走得还不算太远),它不过是一个语言库而已。但正如其开发者所言,他们已经很难理解它显现出的自主性推理能力。未来,一个大语言模型会不会具备像人那样的,或脱离人的控制的思考、推理能力,尚未可知。但人们长期认定的人机交互模式,也就是人工智能只能按照人的指令展开与人的“交流”,会不会被突破还真是一个不敢立刻下断言的事情。ChatGPT与人之间展开的情景化对话,它通过图灵测试、在人的选拔性考试中获得高分、在与人的对话中表现的“逃逸”意愿以及谋求接管推特和推翻马斯克等等“企图”,其类人性特质的显现,已经足以让人心惊肉跳。ChatGPT表现的这种种状态,可能对人类交往的基本结构产生颠覆性的影响。

其次,ChatGPT本身对于人类的总体影响需要审慎评估。其中,它对精英的影响和对一般公众的影响,需要相对区分开来观察。无疑,从人类的总体智力能力、人类拔尖精英的创造性而言,ChatGPT要胜过这类人群尚有难度;从人类的道德判断的当下性、情境性与自主性来看,ChatGPT要作出自主的道德判断,也不大可能。但它会不会在精英与大众之间,对大众发挥意想不到的人际交往颠覆性影响,就是目前需要考虑的现实问题了。

乔姆斯基关于ChatGPT的评论文章,基本上可以看作是人类最出类拔萃的精英对之加以思考所后得出的结论。他极为严厉地指出:“ChatGPT表现出某种类似邪恶的平庸:剽窃、冷漠和回避。它以一种超级自动补全的方式总结了文献中的标准论点,拒绝在任何事情上表明立场,它不仅以无知为借口,还以缺乏智慧为借口,最终提供了一种‘只是服从命令’的辩护,将责任推卸给它的创造者。简而言之,ChatGPT及其同类在本质上无法平衡创造力与约束。它们要么过度生成(同时生成真相和谎言,同时支持道德和不道德的决定),要么生成不足(表现为不对任何决定表态,对一切后果都漠不关心)。鉴于这些系统的非道德性、伪科学性和语言无能,我们只能为它们的流行而感到哭笑不得。”对ChatGPT对人类普遍交往的负面影响,确实不能不予以高度重视。相对而言,对那些极具道德感和判断力的精英人群来讲,ChatGPT的这种非道德性、反道德性的影响是有限的。

确实像乔姆斯基所暗示的那样,与ChatGPT对高端精英人群发挥影响力不同,它对社会公众或普通人群,可能会发生极为不同的效力:ChatGPT这样的交往工具,对于普罗大众日常交往领域的影响,不仅是塑造性的,甚至是支配性的。在现代思想史上,德国思想家哈贝马斯苦于一个分裂的世界形成共识的困难,因此他创制了一套交往行为理论。他试图在现实的社会环境和交往方式中,建构起一种理想的交往模式。而理想的对话情景之建构,是为促进共识的交往之预设性前提。但在实际的人际交往发生之际,建构一种理想的对话情景,比展开一种在人的位势相当不同处境中的 “对话”方式,要困难得多。而在人际交往的理想情景中,建构有利于形成共识的这种背景文化,远不如寻求建构政治领域中的稳定立宪机制来得容易和重要。这便是哈贝马斯与罗尔斯之间展开正面争论的原因之所在。人际交往尚且如此困难,那么,ChatGPT能不能发挥相应的作用,而根本改善人际交往的目前困境,达成一个以人机交往为桥梁的理想化交往状态呢?至少,在乔姆斯基看来,这是根本不可能的事情。因为人际交往是诉诸人的道德感与道德判断的,人工智能不具有这样的能力。故而,人际交往的对理想目标的逼近,根本无法依靠人机交往来实现。

循此思路可以推知,ChatGPT在人际交往中,确实还无法替代超级精英人群为人类设定的道德标准和实际发挥的社会引领作用。但这并不意味着它对人与人的交往状况不会发生巨大的影响。这是因为ChatGPT似乎已经带给人们一个“新世界”。卡尔·波普尔曾经指出,世界不是像传统的唯物主义者与唯心主义者所认定的那样,要么是一个归本于物质的世界,要么是一个精神构造的世界,并由此构成一个二元世界。世界是由三个世界构成的完整世界:物质世界的存在毋庸怀疑,精神世界的存在也无可置疑,但这不是世界的全部。

人类思想的创造物是不同于世界1、世界2的存在,它可以世界3加以命名。思想的创造物既不是单纯对象化的物质世界,也不是纯粹主观化的精神世界,而是同时带有实质上的客观性特点与形式上的主观性特点的一个独特世界。现在的问题是,ChatGPT似乎不能被确定为一个完全没有精神活动能力的客观对象,但也不是直接由人来呈现的精神活动,但它是真正存在的。它的存在特点,就可以被确定为世界3。它已经构成二元世界之外的另一元世界。人类对世界的理解,需要在三元之间展开,而不在二元世界中徘徊或跳跃。人际交往中的人机交往,已经构成一个带有实体性特点的交往形式。

这样的分析有点超出人们常识关注的范围。简而言之,大众在交往中不必刻意去分辨世界3、2、1的构成模式,他们只需要直接面对世界3就可以了。这个时候,越来越趋近于巨量阅读参数和向人看齐能力的ChatGPT,就顺势成为普罗大众的交往对象,而不会被排斥在人际交往的范围之外。就此而言,ChatGPT对社会公众的影响力,就会远远超出精英的预估,对人际交往的现存结构发挥颠覆性的作用。尽管ChatGPT发布以后,人们在英语库、繁体中文库和简体中文库的语料基础上与之展开的对话,所给出的回答具有品质上的重大差异,但是人们趋之若鹜的高昂热情已经表明,它对大众日常交往的影响,已经超乎人们、尤其是精英人群的想象。

ChatGPT可能在引领大众的普遍交往或日常交往中,发挥出令精英人群目瞪口呆的巨大作用。精英的日常交往,借助工具的少,发挥创造性作用的多;大众人群的交往,借助工具的多,依凭创造性的少。精英给大众提供交往工具,因此,大众受这种交往工具的塑造。在人机交互低端的微博、微信时代,精英的这种影响力,或人机交互的既定模式,已经对大众造成模式化的交往机制。这就将公共世界区隔为有创造性的精英与模仿性的大众两类人群。人们长期忧心的公共问题,将不再是公众问题:公共问题由精英们在高端争执,以向人看齐的语言模型设计,来引导和塑造大众以人机交互替代人际对话。一个有利于人类心智和能力成长的公共制度,会在此中浮现。而ChatGPT在对话时表现出更强的价值倾向、更准的事实特性、更精的满意答案,它在大众那里获得的人际交往替代权,还有什么可以怀疑的吗?

再次,对于人的日常交往来说,人的普遍情感和一般智商,是交往顺畅展开的预设条件。ChatGPT已经完全具备这些类人化交往的条件,因此它会颠覆人们的日常生活世界。因为没有一个处在交往中的、具体的、实实在在的人,可以像ChatGPT那样,提供无所不包的知识信息。这会让人们对一般人之间的交往,产生巨大的失望。人们常说,一个傻子提出的问题,可以让十个天才无能为力。这是人际交往中哪怕是博学多才之辈望而兴叹的知识困境和才智天花板。随着语料库阅读参数的迅猛增长,以及训练上的疾速改进,ChatGPT的更高版本,可能会在类人性上有一个突破,这必将对中等资质以下的广大人群,发挥人际往来不如人机交往的决定性影响。这不是ChatGPT本身有没有情感的问题,而是在人机互动时,人们把自己的情感投射给ChatGPT了。因此人们宁愿在人机对话上寻求人生困惑的答案,而不愿在人际对话中陷于无答案的磨合。虚拟情感和真实情感的互动,会解除日常交往中必须是活生生真实个体情感摩荡的困境。虚拟情感和真实情感的碰撞,是不是情感碰撞呢?显然可以认为是情感碰撞。

更进一步,如果把机器对象化的僵硬立场,转而理解为人机内在的互动关系,那么人们就有必要思考后人类乃至于超人类的问题。在人机合一、生死合一、人神合一的未来可能前景中,技术和人之间,可能并不存在人们在现有知识上的固守边界:人可以向机器提问而获取知识,与机器互动而得到情感满足,与机器发生关系而满足肉身欲望,当然也可以在机器那里获得精神的超越,得到人生价值的提升,甚至得到宗教信仰的那种神启。世俗与神圣的情感,会一直是人类胜于机器或人工智能的最后堡垒吗?人们的信心会否摇摇欲坠?种种促人思考的问题连贯而出。ChatGPT促进的人类交往革命,会以什么样的具体面目呈现在人们面前,目前还只能拭目以待。

文明的逻辑与技术、智能的逻辑

|孙向晨|

人们正从社会生活的各个层面来讨论ChatGPT,但从GPT可能给人类带来的冲击来看,我们需要从更大尺度的视野来思考这个问题。这里尝试从文明的视野来反思GPT的迅猛发展。这涉及文明、技术与智能之间的复杂关系,ChatGPTT的发展为我们思考该问题提供了一条深刻的线索。

一、轴心文明的稳定态逻辑

雅斯贝尔斯在他的《论历史的起源与目标》中指出的,人类在轴心文明之前其实还有 “古代历史的高度文明”,如苏美尔-巴比伦、埃及、前雅利安人的印度河文化以及中国的上古文化。这些古代文明都曾创造出辉煌文化,在技术上也有很大突破,比如埃及的金字塔、巴比伦的古城、商朝的青铜器等。对此雅斯贝斯做出总结:国家的形成、文字的发明、共同的文化、帝国的形态以及某些技术的登场,等等。但这并没有使所有这些古代文明都进入轴心时代,一些文明明显没落了,没有发生“精神突破”。为什么会这样?这方面留下的历史资料非常少,我们只能有所猜测。从现有材料看,上古文明有着非常残暴的一面。去埃及访问时,印象最深的是,在埃及巨大神庙和陵墓里都有一个鲜明标记,就是法老用锤子击打俘虏头盖骨,以示法老权威。以现代眼光看,这是非常残忍的做法。事实上,在殷墟遗迹上也出土了大量人祭与虐杀的遗骸。今天谈的中国文化传统,大概是在殷周之际有个转换,孔子讲“郁郁乎文哉!吾从周”,周代的人文传统把殷商文化给替换了,周文化实现了“精神突破”进入轴心文明。我们可以大胆地猜测,轴心文明之前,上古文明是建立在残忍、恐怖和对敌对部落的控制之上的,这样的文明不能长久地持续。

雅斯贝尔斯所讲“轴心文明”相较上古的高度文化发生了根本性转变,称之为“精神突破”。他说在公元前800年到公元前200年之间产生了历史最为深刻的转折点,“人们开始意识到其整体的存在,其自身的存在以及其自身的局限。他们感受到了世界的恐怖以及自身的无能为力。他们提出了最为根本的问题,在无底深渊面前,他们寻求着解脱和救赎。在意识到自身能力的限度后,他们为自己确立了最为崇高的目标。他们在自我存在的深处以及超越之明晰中,体验到了无限制性。”

由此,人的存在整体上实现了一次飞跃。这样的讲法在我看来还是远远不够的,相比上古文明,“轴心文明”普遍地实现了一种稳定的“情理结构”———比如在古典希腊城邦出现了“友爱”(philia)和理性的追求;在犹太教中,可以看到上帝对于人的爱与智慧的开启;在中国文化传统中,也出现了仁爱与中庸的文化传统。不同的“轴心文明”以他们各自方式形成一种稳定的“情理结构”,且不断地从中汲取精神力量,“在人类每一次新的飞跃之中,他们都会回忆起轴心时代,并在那里重燃火焰。”这样的“情理结构”延续了两千多年,一直到今天。

存在一种很深的误解,人们总是按技术的发展来描述文明的进程,比如陶土时代、青铜时代、黑铁时代,等等,等等。人类运用工具导致分工出现,农业、畜牧业和手工业的不断发展,确实代表着不同的文明阶段。

另一方面,轴心文明之为轴心文明,不仅仅是一个技术进步的问题,而是形成了自己固有的稳定态逻辑,这样的文明才可以持续数千年之久。我们对于文明的理解不能完全以技术为标准,而是需要从深层次情理结构来理解。

事实上,不同的文明区域在技术不断的“进步”中一直保持着其稳定性,亨廷顿所讲的“文明的冲突”,针对的也是不同文明圈之间的关系。如果按技术进步的逻辑,现代世界早该融合在一起了,事实上技术的进步并没有带来这些文明圈的融合。因此,我们有必要跳出技术逻辑来看待文明特点。轴心文明必定包含了自身的逻辑和它的稳定态。这是我们在文明视野下来思考智能问题的一个大前提。

二、现代技术的本质及其与文明的张力

雅斯贝尔斯在他的著作中也看到了现代以来西方在技术上的异军突起,“一种在本质上全新的独特事物出现了:科学及其在技术上的后果”。由此将西方与其他文明区别开来,也奠定了整个现代世界的基础。技术的发展、组织与理解成为了现代的突出标志。其实,在古希腊,哲学对技术有着极大贬低。哲学追求的是知识,是真理,而技术只是一种技艺性的、工具性的工作,这中间存在着巨大的张力。从亚里士多德开始,就有一个很明确的说法,即技术在某种意义上只是一种工具而已,它自身并不具备赋予其活力的法则,它不能自己制造自己,它的动力因在于匠人,它成为一种合目的性的工具。

但技术的发展并不这样简单,传统的工具论的技术观在海德格尔那里被颠覆。海德格尔认为,我们要着眼的不是具体的技术,而是技术的本质。就此而言,技术是一种“解蔽”,它能把隐蔽的东西展现出来,是事物展现方式中的“一种”。“它揭示那种并非自己产出自己并且尚不眼前现有的东西。”但技术只是以一种“限定”的方式来对待事物,使事物只被 “限定”在某一个方向上。由此技术以一种“强求”的方式向事物索取,从而使自然事物失去其本来面目,被纳入技术的系统,失去自己的独立性,变成了某种储备物,也就是现代工业技术的各种原材料。在这个意义上,人似乎成了绝对的主体,支配着自然世界。

在这个过程中,人也被强求按技术的要求去做,技术成为一种无形的驱动理论。表面上,是人在创新技术,而实际上却是技术自身的逻辑在带动人去做这件事情以实现自己的目标。不是我们支配技术,而是技术支配着我们。在这样的工作形态里,人是为了实现技术自身的目标而在努力。

这也与现代科学的发展相关联。现代科学的特征在于把自然当做了可计算之物,因而其背后的最高本质就是可计算的。人为技术所驱动,去谋算自然事物,只从效用的角度去预测自然,人已然成为一种技术的动物。技术的发展有着强大的自我驱动力,但技术本身对于自己的发展是无反思的;人似乎只能听任技术无可阻挡地迅猛发展。

技术的本质与文明的逻辑是迥异的,文明的逻辑是在寻找人类生存的平衡态,也就是人类在一种文明形态下如何能够持续保持自己的样态。现代技术则形成了自己的逻辑,以自己的体系去纳入自然,同时也以自己的方式驱使人类。海德格尔关注由此建立的人类中心论以及对于地球的剥削,更重要的是,技术在推动人们帮助它进行自我实现。这个意义上,人类沦为了这个技术机器上的螺丝钉。文明与技术的逻辑并不合拍,文明是建立在稳定态上的,技术的本质却是单向维度的自我驱动。在一些文明区域,技术与文明正呈现出一种撕扯状态,另一些文明则较好地安放了技术,但未来呢?技术逻辑与文明逻辑的不同调依然会是未来的一个重大挑战。

三、人工智能的突破及其前景

人工智能属于现代技术的范畴,它以自身的逻辑大踏步前进,并呈现出迅猛加速的态势。越来越多的人被卷入为技术服务的洪流,人工智能的发展除了算法上的开发,其自身的发展也需要依赖大量的人力资源。比如,OpenAI就用了大量的人力来进行纠偏工作,这种纠偏正是为了实现技术本身的目的,ChatGPT也在推动着我们帮它实现自身的迭代演进。很多时候,哲学家关于智能所做的判断经常是错误的,他们认为不可能做到的事情,今天的智能技术都已经做到了。当人们还在感叹AlphaGo等弱人工智能或专项人工智能时,通用的人工智能正在脱颖而出。现代技术区别于传统技术的关键特征就在于它的可计算性,人工智能把这种技术本质推到极致,是计算的纯粹化。人工智能实现了技术的最高本质,纯粹计算成了它自身存在的方式。人工智能作为技术,着眼的不是如何高效地剥削地球的效率,而是自我的高度演化。人工智能已经超越了对象世界的物质束缚,其演进速度大大超出了以往技术进步的速度,这是数码智能技术区别于物质技术的根本所在。

ChatGPT的出现让人为之惊叹,因为它代表了一种通用人工智能的奇点正在涌现,基于千亿级万亿级参数训练出来的人工智能正在不断刷新人们的认知。很多时候人们把人工智能的诸多功能都关掉,比如它的情感功能等,甚至限制用户使用,但实验者本身还是能感受其巨大威力。问题的关键是基于深度的神经网络,人们对它背后究竟是个什么样的运行逻辑并不清楚,其不可解释性蕴含着巨大风险。AIGC从ChatGPT到GPT-4的万亿级参数,仅仅过去了数月,人工智能能力大幅提高,可以生成文本图像,自己编写代码等。在如此超强的算力下,GPT的迭代究竟能不能有所谓的意识、创造力等,这些问题虽有待讨论,但有一点是肯定的,它在已有知识的基础上是可进行推理的,因此所谓的意识、创造力也完全是可以在不远的未来预期的。我们并不知道ChatGPT背后的运作机制是怎样的,我们仍在通常意义上来思考未知,用大脑来比附智能。事实上,人工智能的表征就已经以拟人的形态出现了,未来是否可能形成一种新的物种,也未为可知。

关键是ChatGPT是在自然语言而不是在人工语言的语境下来达成自己智能的表现。按照摩尔定律,它可以不断更迭,GPT-4的出现已经预示了它的强大功能,尽管它只是基于语言统计的智能模型,但它的发展未来还是很有可能通过图灵测试的,它带来的生产力提高也是我们现在所不能想象的。

人工智能的迅猛发展既给人类带来极大便利,无数产业会重新组合,无数职业会重新洗牌;另一方面人工智能较之以往的技术也蕴含着更多的高风险和不可控性。智能技术不直接针对自然事物,而是提升人的大脑能力。基于通用人工智能的特点,人工智能的风险会渗透到社会生活方方面面。更关键的是,海德格尔早已看到现代技术的非工具性本质,在人工智能的加持下,它将变得更加自主。智能技术的突破与经过数千年形成的轴心文明稳定态逻辑将形成更尖锐的对立。人类文明在七万年前进入现代智人的文化时代,一万多年前进入农业革命的时代,七千年前进入上古文明,三千年前进入轴心文明,事实上它有着大量的时间可以试错,可以纠错。雅斯贝尔斯所讲的“古代历史的高度文明”因为没有这样的机制,就没落了。上古文明基于恐怖的统治体系全部被废除后,“轴心文明”形成了一种新的 “情理结构”形态。人类文明是在巨大的时间与空间中通过自我纠错而形成的。现代技术的更迭实在太快了,尤其当它直接以智能这种纯粹形态呈现时,更是迅速无比。人类在“喂养”人工智能时,其所面临着巨大风险,是谁也不敢否认的。文明的演化远远赶不上智能演进的速度。在技术时代,其间已经呈现出巨大张力,在智能时代,这样的张力会越来越大。人工智能所带来的冲击可能是我们现在所不能想象的。

四、一种“知止”的智慧

基于对于生物演化、技术进步、经济积累、历史演进的认知,现代性偏向于一种“进步”的观点,我们也总不断期待取得更大的“进步”。“进步”的观念同样是与人作为主体的现代观念相关联的,技术使人从自然中脱离出来,成为主宰自然的“主体”,另一方面人又屈从于技术。技术的“进步”有自身的逻辑,并不全然顾及人类利益。在智能时代,这一问题变得尤为突出,尤为急迫。在OpenAI推出GPT-4不久,以马斯克、赫拉利等人为代表,超过千人的各界知名人士,呼吁暂停开发超过GPT-4的人工智能。因为,智能的迅猛发展会对人类构成深远风险,而“轴心文明”以来的人类社会似乎还没有为此做好充分的准备。因此,他们呼吁在开发出更高级的人工智能之前,人类应该投入更多的资源来对之进行规划与管理,OpenAI也认识到在未来开始训练AI系统之前,需要进行独立的评估与审查,对于创新模型所用算力的增长速度也需要有所节制。技术终究是为了服务人类的,智能发展的步伐也需要与文明的容纳力相适应。

智能的迅猛发展也许需要我们有一种“知止的智慧”。中国文化传统讲定、静、安、虑、得,这并不是一种禁锢“进步”的概念,而是像《易传》强调的那样,“时止则止,时行则行,动静不失其时,其道光明”。对于人类而言,可能并不单单只是进步才能带来光明,时止则止,止于至善,更是一种光明。文明逻辑与技术逻辑、智能逻辑之间需要一种对冲,人类需要自己的演进时间,这样才能形成宽广的缓冲地带,这样人类才可能迎来更美好的未来。

GPT语言模型:作为“类人型” 人工智能的技术准备

|简圣宇|

从2022年末开始,ChatGPT以及随后登场的GPT-4迅速成为科技界乃至全社会都在关注的焦点。与之前的“元宇宙”概念还停留在构想阶段就被热炒不同,ChatGPT是在务实地推出产品之后,在产品本身具备的超强能力的带动下,凭借实力而火爆的。而且落实“元宇宙”还需要一个协助人类完成各种“人工智能生成内容”工作的数字助手,为了建立“元宇宙”这样的虚拟空间,就需要GPT语言模型本身所具备的自动生成内容的属性。人工智能作为一种前沿技术,若想通过商业化应用的路径走入千家万户,那么它就得更具“人性”,成为“类人型”人工智能。而GPT语言模型恰恰可被视为是这种人工智能的“类人型”转化过程中所做的技术准备。

所谓GPT,即“生成式预训练转化”的英文缩写。

OpenAI研究人员在2018年发表的论文中提到,他们探索着一种用于语言理解任务的“半监督”方法,将无监督预训练和有监督微调相结合。

他们开展的语言模型预训练过程包括两个阶段:

第一阶段是基于大型文本语料库去对大容量的语言模型开展学习活动;

第二阶段则是对特定的被标记的数据进行具体判别,包括自然语言推理、问题回答、语义相似性和文本分类。而所谓“类人型”人工智能,即按照类似于人类的自然语言表达方式,模仿人类的思维模式和行为习惯,从而让人产生某种亲近感,方便应用于日常社交领域。

大型语言模型正在赋予人工智能以所谓“灵魂”(类似于人类的心智),使用GPT方式的语言模型不但让机器的深度学习变得更加高效,而且还能让它模拟人类的认知过程,具有某种类似于人的“硅基心智”,即在硅基设备上产生的与人类类似但又有区别的心智模式。当ChatGPT发展到GPT-4版本时,该语言模型已具有了初步的推理能力,让它距离能充分模仿人类心智的目标又进了一步。

社会的重大变革需要相应的一段技术准备期,而当技术达到一定成熟程度,就会由量变升级为质变。特定阶段的整体技术进步和经济增长都是由一些关键技术推动的,这些关键技术即“通用技术”(按照经济学家李普西等人的定义,“通用技术”即一种在其整个生命周期内都具有可识别度,包含很大的改进空间,有许多用途和能被广泛使用,并具有许多溢出效应的普适性技术。农业时代的种植技术、工业时代的蒸汽机和机械设备、后工业时代的互联网和人工智能技术,都是人类文明史上相继出现的“通用技术”。这些“通用技术”用途广泛,能形成一个围绕自己持续发展的生态环境,从而在社会各个领域都产生如同毛细血管一样细致微妙的影响。

微软测评GPT-4后发布的报告开篇就提出:“GPT-4是迈向通用性人工智能(AGI)的重要一步。”而OpenAI公司指出,像GPT这样的大型语言模型已表现出“通用技术”的特征,而且这也表明它们或许还将显示出相当大的经济、社会和政策方面的影响力。不过从长远来看,GPT语言模型在目前时段内所能带来的变革仍然有限,无论是其自身的变革,还是其所能引发的社会、文化变革都处于起始阶段。毕竟大型语言模型属于宏观人工智能技术的一部分,而GPT又是这种语言模型应用的一种模式。至于当下走红的ChatGPT3.5版本)和GPT-4又只是GPT语言模型最近的几个新版本而已。日后的学者在回顾2022— 2023这个时间段时,会觉得这只是人工智能技术发展史上不起眼的一小截。

尽管如此,正所谓“风起于青萍之末”,GPT语言模型发展到ChatGPT(3.5版本)和GPT-4阶段其实又是一个不平凡的历史节点。这两个版本的相继到来,宣告着人工智能逐渐具备 “类人心智”的时代正在到来。它虽尚未有自我意识,但已具备作为人力资源的潜力。尽管人工制品没有生命,但并不妨碍它在特定的专业领域具有强大的生命力。包括飞机、高铁在内的各种人工制品,虽然在整体精巧程度不及小鸟、骡马等自然物的亿分之一,但在某个单一领域却以绝对优势碾压对方。更何况GPT语言模型现在才刚刚到4.0版本就已具有超越大多数人类个体的知识归纳能力和自然语言表达能力,以及具备将它自己所目睹的对象按照算法关联起来的判断力和整合力。若接下来再持续优化升级一段时间,让它的“类人心智”能力继续得到增强,那么一定会作为通用技术影响人类社会,使得人类文明又往前迈进一级“不可逆”的台阶。

OpenAI选择在2022年底推出3.5版本的ChatGPTT有其市场策略。这是为接下来ChatGPTT的4.0版本的出场做好充分的“预热”工作。实际上GPT-4才是“王炸”级别的新版本,因为它不但具备了图像识别能力,而且还能将图像内的众多物件加以关联。随着它各项“类人”能力的加强,它正在向通用人工智能层次递进,成为重塑人类社会的关键力量。相较而言,与3.5版本只能通过文本输入指令不同,GPT-4已经可以接受图像作为输入指令,并对图像内容进行智能分析,以及给出相应的对策建议。相当于人工智能的眼睛与心智之间开始建立关联关系。OpenAI开发的应用程序 “成为我的眼睛”正在实现所谓“视觉访问”,盲人和视觉障碍者将能借助它去识别身边的事物。按照该公司网站介绍,他们正在开发由GPT-4驱动的,具有类似于人类眼脑关联能力的计算机视觉系统。比如,当你向它发送一张自己厨房的照片,那么它不但能用“眼”对这些食材进行图像识别,还能用“脑”去推断和分析可以用这些食材和配料搭配着制作什么美食,然后生成相应的菜谱。

更重要的是,GPT-4还具备调用多种程序来实现一个指令的综合能力,该能力是之前的人工智能技术所罕有的,这就让它在心智方面越来越像人类,可以辅助人类作出决策。毕竟从决策的角度看,所谓认知就是能够预判对手和自己的周边形势。主体作出预判的深度和广度,以及最终的准确度,决定了其所具备的认知能力的高低。比如,优秀的判断者能从 “城门失火”判断出即将“殃及池鱼”,而差劲的判断者只会看到火在燃烧这一现象。GPT语言模型已经展现出这种优秀的判断者的品质,日后再迭代升级,尤其是随着其相关插件的丰富化,它将不仅能像人类一样对自己所“见”事物进行观察和推理,而且还能比人类更敏锐地发现这些事物之间的内在联系。

这种能力是一把双刃剑。从好的方面看,该能力可以大幅提升人们的日常工作效率,让人们从各种琐碎的、重复性的重负当中解脱出来,把时间用在更富创造力的事情上面,并且享用属于自己的“慢生活”。在被现代性洗礼后的当代社会里,每个人在一天当中有太多的工作要做,特别是在相当内卷的东亚国家,似乎总有一种无形的力量,推着人无法停歇地往前狂奔。于是有人以充满诗意的语言呼吁:“慢下来,让灵魂跟上身体的脚步。”如果每人能有一个具备“类人心智”的虚拟助手来协助自己的日常工作,或许能让自己获得一定程度上的时间自由。而从坏的方面看,该能力同样可以大幅提升机器“向恶”的能力。它这种“眼脑”关联推理能力确实让人颇觉毛骨悚然,因为这意味着类似于《流浪地球》里MOSS的“数字眼睛”成真了。在它的赋能下,摄像头可以随时在我们身边盯着,不露声色地把我们分析得比我们自己都更透彻。而且它能在摄像头等设备的助力之下开启“上帝视角”,全方位、无死角、实时且回溯地观测着我们。而我们由于不具备肉身联网能力,所以也没有全景视角的能力,只能对它“单向透明”,一言一行被它尽收眼底。

微软还尝试使用ChatGPT去控制机器人,他们提出:“ChatGPT是一种基于大量文本和人类交互语料库进行训练的语言模型,使其能够对范围广泛的提示和问题生成连贯且语法正确的响应。”即,ChatGPT可以成为人类跟机器人之间的交流中介,人们直接通过自然语言发出指令,ChatGPT便能即时转译为编程语言,控制机器人完成相应指令。而基于GPT-4开发的Auto-GPT应用也上线了,这种具有一定自主能力的语言模型让机器变得更加“类人”,也让人工智能越来越像科幻电影《终结者》里那个骇人的“天网”了。作为人工智能范畴内的子技术,GPT语言模型目前仅处于发展的婴孩阶段就已如此强大,日后当它步入成熟阶段时会具备多大的力量就难以想象了。这就是为何人工智能研究权威专家约书·本吉奥等人会联名签署公开信,呼吁暂停开发比GPT-4更强大的AI系统至少6个月。因为现在这种语言模型的进化速度已经超越人类对之的规划管控速度了,如果不能及时出台措施对之加以制约,则它可能会带来一场后果难料的社会动荡。

若进一步地辩证地看待GPT语言模型的双面性,则可见它不但带来了人类社会加速进步的遐想,而且也带来了某种对其后续发展和人类未来的担忧。当代社会本来就不断发生着“从物理世界到数字世界”的权力“再分配” 现象,而GPT语言模型的应用很可能会加剧这种演化过程中的各种权力分配失衡问题。微软其实也很清楚GPT语言模型所蕴含的风险,在其最近发布的关于GPT-4的评测报告中,除了谈到它的正面意义,比如可以在医疗、教育等各个领域里作为人类的助手,增强和扩展人类的各项能力之外,还谈到它可能带来的风险。这些风险包括内在和外在两方面。内在风险来自于GPT-4技术的不完善,它跟3.5版本一样,也会在运行时出现“幻觉”问题。即,会把错误的参考文献、内容和陈述等问题内容与正确的信息杂糅到一起,并自信地用颇具说服力的方式呈现出来,让用户在真假莫辨中被误导。而外在风险来自于它可能对社会产生的各种冲击。由于微软现在是OpenAI的投资方,故而这篇关于GPT-4的评测报告主要还是在谈GPT语言模型用于人机协作时的巨大助力作用,但也谈到了GPT语言模型一旦实现普及后可能造成的工作替代问题,诸多目前正在由人类从事的工作很可能被GPT语言模型替代。

毋庸置疑,GPT-4评测报告所谈的问题都极有可能在未来产生深远影响。GPT语言模型虽已经具有了某种“类人心智”的特征,但这种硅基心智仍然停留在“类人”阶段,由于目前仍不具备“自我意识”,还达不到“人类”的自由自觉程度,因此存在着被操控去作恶的隐患。正如学者赵汀阳所言:“人类不断经历的危机或人祸表明,即便人们是理性的,仍然忍不住冒险妄为。”由于它只能由预训练师先为它设定一个认知框架,然后它自己再在此框架下将已有信息进行整合,且在此过程中还需要预训练师不断对它进行纠偏,所以这意味着如果给某个GPT语言模型设定的是一个带有偏见的认知框架(比如带着地域、种族、性别歧视,乃至于更为微妙的宗教、文化、审美、学科等方面的偏好),然后再持续给它投喂一些具有片面、偏激、仇恨、歧视等反社会特征的信息,乃至于教它各种危险技能和为它提供实施渠道,那么很快就可以把它训练为一个能够反噬人类社会的超强的、职业型的“数字反社会分子”。而如果持续引导它往“向恶”方面发展,由于它不具备自我反思能力而很可能迅速沦为掌握各种罪恶思想和手段的集大成者,而且还是那种力量极其强大的、无处不在的“恶魔”。甚至都不需要被带偏,它自己就可能在运行过程中出错,且自己无法识别出这些错误,还会将错误当成正确的内容进行下一步的决策,而这就让它天然带着某种影响社会稳定的潜在风险。毕竟现在的各种智能技术已与人类日常生活高度绑定,“人脸支付、智能辅助驾驶、智能金融、智能安检、智能物流、公共服务机器人等人工智能应用已成为人类社会运行的重要组成部分”。未来这种绑定还会从 “高度绑定”演化为更不可分割的“深度绑定”,因此我们需要从技术、社会心理、政策等各个方面对人工智能可能带来的社会影响进行及时跟进研究。

长期以来,人类对于作为自己的“摹本”的人工智能一直有一种莫名的优越感。然而当目睹到GPT语言模型赋能的人工智能愈加“类人”之后,人类开始意识到“摹本”正在具体功能上具有超越乃至碾压“原作”的能力,于是各种焦虑与不安油然而生。在GPT语言模型带来的工作替代方面,其实更让人担忧的是它未来一旦实现了廉价化、普及化,就很可能因为这种“廉价替代”而在各个行业领域内造成“毁苗”问题:以其便宜而高效的优势在就业市场产生“挤出效应”,严重挤压还处于幼苗期的青年人才的生存空间,而这些青年人才恰恰是人类社会发展最重要的战略储备力量。人类的人才培养工作是一个漫长的实施过程,需要不断积累才能最终从初级到达高级。成年树木的枝叶断了还能再长出来,但假若是那些刚刚冒头的小树苗被伤害,那被冲击的就可能是整片树林了。人类的技能成长速度是比不上大型语言模型的,比如ChatGPTT在3.5版本时就达到谷歌Level3初级软件工程师入职水准,到了4.0版本之后还能处理更为复杂的编程任务,未来5.0版本肯定能达到更惊人的层级。虽ChatGPTT尚未充分产业化,也尚未对程序员岗位造成冲击,而且短期内也还影响不到高级程序员的岗位,但冲击必将到来,而程序员都是从初级干起的,若他们在需要呵护、扶持的起始阶段就陷入极度内卷的恶劣生态之中,那还有多少人能坚持到最后就很难说了,这对于该领域的人才培养来说无疑是一场“海啸”。作为参照,我们可以观察一下现在正在 “非遗”领域发生的“毁苗”问题。在现代技术和由此产生的现代生活方式的冲击下,传统的技艺、生产方式和人才培养模式,在时代浪潮面前毫无招架之力,往往迅速陷入“传承式消亡”:表面上技艺还在一代代传承,但原初那种最精湛的手艺早已不复存在,后来的传承人再也达不到前辈们的水准。

前辈们好不容易积淀起来的宝贵经验无法得到充分传承,相关的内容丰富的技艺在这种“传承”中被持续简化、劣质化,最终被低质量但具有价格优势的新工艺所取代。结果,其招牌还在,但技艺已在事实上灭绝。在GPT语言模型及其相关衍生应用的冲击下,未来在社会生活的各个领域可能都会出现程度不一的“毁苗”问题。从年轻的程序员、软件开发员、教师,到媒体工作者、法律顾问、财务顾问,以及客服人员等,在其从业初期就很可能陷入巨大的内卷之中,导致很多宝贵的经验无法得到顺利传承,逐步在席卷而来的廉价化浪潮中被边缘化,造成人类原有文化的变质、退化,甚至消亡。

此外,GPT语言模型应用普及化后还可能造成人类在专业领域和生活领域出现“弱智化”问题。它作为数字助手能为人类提供更为舒适的工作和生活环境,但也有可能让相当多的人由此异化为“数字白痴”,一旦离开人工智能助理之后就无法正常应对日常任务。长此以往,人类各领域的文化也可能出现传承危机。刘慈欣在《赡养上帝》这篇科幻小说当中描绘了这样一个先进种族:由于他们将各项工作都交给了人工智能来代劳,以至于随着岁月的流逝,他们的智力水平逐渐退化,最终竟沦落到已无法理解自己所创造出的科技的程度。如今GPT语言模型虽只是到了4.0版本,但已存在此种隐忧。在它的助力下,参与者不需要掌握完整的代码编写能力,只需要具有代码思维就能完成编程工作。这样的便捷方式既可以让更多不擅长编程却有较高创造力的人参与进来,产出更多成果,同时却也有可能导致原本在这个领域的专业人员逐渐丧失原有的基本能力。从某种意义上说,奴性来源于包括人身依附关系在内的各种被权力掌控的关系。传统社会出现过的奴性问题,是否会在人工智能“代管”社会的情况下,换一种面貌出现?

综上,GPT语言模型是作为“类人型”人工智能的技术准备出场的,它真正的潜力和风险都尚未充分显现出来。技术本无善恶,关键是人们怎么使用它。对于ChatGPT这种语言模型,人们最需要的是对设计制度加以规范而非一味抵制。不管人们内心是否能接受,总之改变已发生,而且是不可逆的转变。套用一个科幻文学喜欢用的句式,我们在当下还不清楚GPT语言模型“将把人类文明带往何方”,但很清楚的是,我们需要做的不是像18世纪的工人抵制珍妮纺纱机一样去抵制GPT语言模型,而是需要用更具前瞻性、时代性、战略性的具体政策措施去促进它的发展和应用,且在此过程中用更具科学性、针对性和可操作性的法律法规去确保它朝着“科技向善”的方向迈进。

转自:“再建巴别塔”微信公众号

如有侵权,请联系本站删除!


  • 万维QQ投稿交流群    招募志愿者

    版权所有 Copyright@2009-2015豫ICP证合字09037080号

     纯自助论文投稿平台    E-mail:eshukan@163.com