作者:张海洋,《欧洲研究》编辑部副编审(北京100732)。
来源:《中国社会科学评价》2023年第2期P4—P8
就ChatGPT这一议题,虽然笔者与期刊界及国际关系、政治学学界的同行进行过一些沟通,但目前大家还没形成共识。笔者的看法仅是作为一个研究者和期刊从业者的个人看法。
ChatGPT的能力与边界
ChatGPT这个现象级产品的诞生,显然是自然语言处理领域的一个巨大进展。笔者首先向大家报告一下试用ChatGPT的体验。一是用它设计了一个关于中欧关系历史、现状和未来发展的学术论文提纲。笔者分别进行了三次测试,论文框架基本一致,但内容的完整性和丰富性不断在改善。提纲质量应当是在硕士研究生的平均水准之上。二是给它一个由人类生成的提纲,基本能把提纲变成一篇至少外行看不出毛病的短文。只是受限于输出篇幅,这些文章通常无法撰写完整。三是人机交互非常方便,搜集信息的速度非常快。四是它展现了一定的推理能力。笔者问了这样一个问题:如果所有的猫都有4条腿,而咪咪是一只猫,那么咪咪有几条腿?它回答“咪咪有4条腿”。几次测试发现,它有一定程度的推理能力,至少可以展现出“有推理能力”的假象。五是它有一定的联想能力。比如问它看到一个香蕉能联想到什么?它的回答是可以用来做一些有趣的实验或者游戏,例如用两个香蕉和一些线做一个电话机与朋友通话。这说明它的联想能力已经能够把物体的形象和功能联结起来。
ChatGPT究竟是具备这些能力,抑或只是表现出有这些能力的“假象”,还有待进一步测试。一些行内人士的解释是,ChatGPT的基本原理是一个奖励模型和强化训练的综合体。奖励模型是指人不断提问,并对人工智能的回答进行打分,在此基础上,依据回答的分值高低对模型进行强化训练。这种强化训练是开放式的,不同于给出标准答案并尝试让大模型照此回答的有监督学习。通过人工打分,可以诱导ChatGPT不断趋向某一个方向进行回答。可以说,ChatGPT类似一个为了迎合人类偏好和沟通习惯不断改进自己的“好学生”。
那么,ChatGPT的能力边界在哪里?基于目前搜集的资料和考察结果,笔者的理解是:由于ChatGPT是基于以语言为基础的语料库,运用奖励模型和强化训练不断循环模式生成的AI,它的回答应当是基于以语言为表现形式的信息生成的。维特根斯坦曾经谈到,“凡是能够言说的,都可以说清楚”。基于这个概念,笔者猜想:凡是可言说之物,就是基于自然语言生成技术设计的人工智能的能力边界。如果大模型不断迭代,最后的能力上限可能就是基于语言逻辑进行有效的沟通、推理、创造和学习的能力。
因此,ChatGPT 的局限性在于,目前它只能通过语言信息来学习。而“语言游戏”的生命力在于,它是嵌入在真实的生活形式之中的。单纯通过语言吸取的信息和人类通过感官吸取的信息是有很大不同的。由于人和AI信息获取渠道的差异,目前为止,AI的学习范围会被限制在人类必须在感知后通过语言媒介的转码传递的信息中。未来,如果人工智能依旧基于当下方式迭代,就必须通过与人类的互动实现共同进化。当然,随着技术进步,将来AI或许可以通过某种途径获取超越语言形式的信息,甚至人类感官吸取不到的信息。这就引出了一个问题,人类作为一种生命体,为什么会进化出感官?
在笔者粗浅的理解中,“生命”首先会主动地、永不停歇地从外界获取能量。其次,它会通过繁殖的形式把遗传信息传下去。这两个特征是生命存在的前提,所有已知的碳基生命都遵循这两个定律,否则便无法存在。基于上面两个前提条件,生命会进化出感官,根据环境信息作出趋利避害的选择,并根据环境的演变不断升级自身,也就是进化。当前,AI还不具备上述特征。但笔者比较担心的是:我们对生命形式的理解是基于人类感官限制下的有限信息得出的经验,由这些经验得出的知识的指导意义也是有限的。
举个例子,20世纪80年代以来,圣塔菲研究所一直在研究一种被称为涌现(emergence)的现象。如果把生命理解成为一种系统,系统各组成部分之间会有相互作用。这种相互作用,在一定的组织层次上有概率展现出新的特征,这种新的特征就是涌现而成的。在自然界,涌现是很常见的,它原本是遵从地球上的物理学和生物学的规律出现的。人类在这个环境当中进化了几千年,所以笔者假定原本人类能够和这些涌现现象共存。而目前的报道显示,当训练数据的规模达到一定程度时,AI的能力会突然出现大幅提升。在实验室条件下,随着人工智能技术的不断发展,人类正在主动追求涌现现象,这会不会导致大量的超出我们理解的涌现现象出现?人类对此是否有足够的经验来应对?人类对涌现的追求,是否可能导致出现一种在我们认知范围外的新的生命形式呢?
之所以会提出这个问题,是因为笔者尝试了很多方法试图让目前这个AI提问。笔者的假定是:人类追求知识的动力一定源于自身的生存动机。为了生存,我们需要各种各样的知识来强化自己的能力和适应性。因而对人类而言,提问是非常重要的,它也是产生知识的原点。那么,AI会不会提问?有意思的是,尽管笔者多次尝试诱导,但它一再表示“不想继续这个话题”。这就让笔者非常好奇,AI的开发者究竟在隐藏什么?
以上是笔者这个人工智能和计算机科学外行对于ChatGPT的有限体验。在对这种技术没有充分的认知之前,我们需要特别注意安全性的问题。比如,是否先确保一种人机共生的发展路径。换言之,在发展人工智能底层技术以及相关应用技术的过程中,是不是可以先有意识地塑造一种学科发展路径的隔离墙。在相关领域的认识还不成熟的情况下,技术进步的重点不应是追求产生有独立意识的AI,而是努力把它塑造成一个人类大脑前额叶的升级版。
ChatGPT对知识生产的影响
ChatGPT的优点是显而易见的。
首先是信息搜集和整理效率的提高。笔者用ChatGPT整理一份欧盟委员会主席冯德莱恩的日程表,它给出的结果并不完全准确,但比笔者整理要快得多。由于搜集工作可以很快实现,笔者还可以让ChatGPT分别梳理欧盟委员会主席冯德莱恩和德国总理朔尔茨的日程表,再展示一下他们日程表的交汇处。这种政治人物行踪跟踪的工作以前比较复杂,可能需要通过做剪报完成。现在有了AI的协助,这种工作很快就可以完成。人脑毕竟有局限性,因为我们会累,会遗忘。这些局限性意味着,繁重的信息搜集和整理工作消耗掉知识生产时间的大部分,而我们通过思考产生的火花必须迅速记录下来,否则很容易丢失。信息搜索和整理效率的提高大大减少了材料准备的时间。进一步说,ChatGPT增加人类信息搜集和整理的效率,等于让人类的脑力可以解放出来,以一个更宽广的视野,去观察以前可能关注不到的问题。简言之,它可以加强人类知识洞察的能力。
其次,它有助于提升人类提出问题的效率。目前看,似乎可以与ChatGPT进行一些相对高质量的学术对话,基于其信息反馈,再不断进行追问,确实可以得到一些有用的启发,进而提出新的问题。从编辑的角度看,提问题的能力是期刊论文写作最核心的能力之一,也是学术理论修正过程中非常重要的一环。和AI的对话成本很低,这客观上增加了人类学者推动理论修正的速度。
ChatGPT的缺点主要是:第一,信息的可靠性存疑。人工智能的信息来自语料库。传统上,人类是知行合一的,但人工智能只能通过语言交互而无法通过实践去检验信息的可靠性。它只能接触人类提供的语言信息,而人类的知识和认知在很多问题上本身就是分裂的。那么,对AI来说什么才是可靠的信息?这个问题很可能没有标准答案。
第二个缺点是,目前为止,它似乎没有办法发现真正的因果关系,但它又太便利了,人们很容易对它形成依赖。而过度依赖ChatGPT会导致人的怀疑能力下降。一个现实的问题是,以前逼着学生解决一个问题,他会去思考;但现在用ChatGPT也可以弄出一个看上去不错的东西,这样学生很有可能产生惰性。
第三,对于不同的人群,ChatGPT呈现的效能不同,可能会导致知识生产的秩序出现问题。简单地说,寻找真相是困难的,但传播价值是相对容易的。人类认知结构的弱点是,会本能地拒绝引起心理不适的信息。目前AI的基本逻辑是投其所好,是一个基于奖励模型和强化训练创造的智能,依赖于人的反馈。那么,它是否擅长于提供人类不愿看到,但对于提升人类认知有帮助的信息?这有待观察。再者,当所有人都能轻易写出言辞优雅、受人欢迎的长篇大论时,科学家该如何抵御这种诱惑,把可能不受欢迎的真相告诉大家。随着这些年互联网技术的普及,已经出现了很多学者网红化的现象,因为投听众所好获得的收益远大于皓首穷经做研究的收益,这已经对知识生产产生了不利的影响。人工智能技术会不会助长这种现象?这是令人忧虑的。
ChatGPT对期刊建设的影响
具体到期刊领域,ChatGPT大概会产生如下影响。一是生产论文的周期会缩短。而这种生产力的解放,大概率会引发生产关系变革,首先是会导致学术共同体对期刊数量的增加有更多期待。二是低水平学者可能会面临危机,纯知识型的学者受到的压力可能是最大的。在学者群体内部,能结合人工智能技术的学者与不能结合的学者间的差距将会加速扩大。三是或将产生新的人机结合式的知识生产方式。具有特定理论背景的作者可能会主动转职为人工智能模型的训练师,主动将自己掌握的理论和范式算法化,并尝试通过人机互动对理论和范式进行迭代。四是各个领域的学者都可能把AI的底层能力和专业知识结合,催生出新的学科,并提升基础研究向应用研究的转化速度。
由于ChatGPT的发展速度非常快,相关的伦理考验可能会超越过往的学科转型。比如说教育学,以前研究的重点是如何提高教学质量,当下则有可能变为如何训练人工智能的助教?这是一个新的、具有理论意义和现实意义的领域。对教育学而言,笔者认为这种新的应用是利大于弊的。但并非所有领域都是如此。比如在国际政治领域,如果基于自然语言生成技术去训练认知战的虚拟士兵或者网络宣传员,这种应用就是弊大于利的。简而言之,某些学科的发展,可能会进一步激发出人性的恶,而人工智能的出现很有可能大大加快学科发展的速度,压缩人类的反应时间。要不要去发展这样的学科,恐怕暂时没有很好的答案。
ChatGPT出现后,期刊是否还需要继续存在?到目前为止,笔者认为答案是肯定的。期刊最核心的功能是学术守门人,它建立的基本假设是:人类是不完美的,学者也一样,所以需要守门人,去确保人类尽可能向完美的方向努力。尽管人工智能时代来临了,但仍然没有办法证明不完美的人类能够创造出完美的人工智能。所以,期刊的首要价值在于确保人类,或者说所有物种在学术探索的过程中要不断趋向真相。人工智能的发展没有改变,甚至在事实上强化了这一逻辑——已知世界的知识增长越多,面对的未知就会越多,就更需要守门人。即便将来实现了全自动化的、不太需要人类参与写作的人工智能,我们仍然需要搞清楚它写的东西对人类有没有价值?是否可靠?它主导的知识发现与人类的伦理和价值系统如何兼容?因此,守门人制度,可能是保持人类自主性的重要堡垒。
那么,期刊面临的现实挑战有哪些?
投稿量可能会增加,审稿的难度也会增加。对于使用人工智能辅助创作的投稿,期刊界显然面临着“怎么办”的问题。笔者个人的看法是,期刊应该在技术飞速变革的当下拥抱变化。这里需要思考的问题是:期刊是要促进学术创新,还是只能促进人类的学术创新?怎么界定合格的期刊作者的标准?怎么确定学术创新的公正性标准?学术发表是一个人类之间的比赛过程,还是为了人类的发展进行学术探索的过程?会用AI的作者和不会用AI的作者之间,公平的边界应该如何划分?是否有可能设计这样一个标准?这个标准的存在是否必要?对这些问题,还没有成熟的答案。但能确定的是,期刊界要积极拥抱变化。
人工智能技术还在成长,它一定会深刻卷入知识生产的学科建设中。在这个过程中,研究者也好、期刊界也罢,应该主动塑造一种人工智能对人类主体性的路径依赖。在这个过程中,期刊的角色很重要。这种塑造行为的意义不局限于具体学科,而在于整个知识探索过程。如果要保护人类在学术创新活动中的自主性,期刊可能是最后的堡垒。
期刊界还需要深入思考学科建设的伦理和判断标准。是否要开设某一学科?要不要开展一些对于未来世界发展可能非常危险的研究?很大程度上,期刊的价值在于标记,它标记发表在期刊上的文章是受到主流学界认可的。在当前的环境下,我们需要思考,要给什么样的文章打上“可靠”的标记。这一问题背后有深刻的理论意义和现实意义。
从技术层面看,面对ChatGPT的发展,期刊建设可以做些什么?首先是要加强对编辑的人机协同训练。从较为积极的角度出发,它可能会使编校流程,尤其是校对流程的工作外包更有可能实现。可以考虑引入人工智能技术辅助期刊的编辑审稿,解决或许很快会来临的、由审稿量大幅上升导致的工作压力。其次,期刊的重心应做一些调整。在基本定位不变的情况下,期刊的工作重心应进一步转向推动知识创新。或许,期刊界需要在学科建设的宏观视角上,更注重如何提出更值得研究的问题。最后,应加强期刊之间,乃至期刊与人工智能研究界的互动合作,建立新的学术共同体,进一步研究在人工智能转型时代如何更好地发挥学术守门人的作用。
转自:“中国学派”微信公众号
如有侵权,请联系本站删除!