以下文章来源于传媒观察杂志 ,作者史安斌 刘勇亮
编者按
人工智能(AI)的广泛应用给新闻业带来了变革与挑战。清华大学新闻与传播学院教授、博士生导师,清华-伊斯雷尔·爱泼斯坦对外传播研究中心主任史安斌与博士研究生刘勇亮在《传媒观察》2023年第6期刊文,通过对9位媒体机构新闻工作者的深度访谈及相关资料分析,回顾了AI赋能中西方媒体新闻生产的历史和现状,分析了AI技术给新闻生产在内容偏向、隐私版权、信息真实等方面带来的挑战,梳理了从媒介融合到人机协同的演进路径。为了适应AI赋能新闻生产的愿景,我们应当处理好生产力与创造力的关系,重新界定新闻从业者的职业身份,积极开展面向公众的AI素养教育。
2022年11月30日,由马斯克等人投资创立的OpenAI实验室的人工智能生成聊天机器人ChatGPT(Generative Pre-trained Transformer)问世,该系统采用机器学习进行训练,进而实现人机交互。作为人工智能通用大模型的最新成果,ChatGPT拥有庞大的数据库和惊人的算力,能够自动生成多种类型的文本内容,一经推出便引起了全球的广泛关注。作为与人工智能技术进行深度融合的领域之一,新闻业对包括ChatGPT在内的人工智能技术进行了大范围的讨论。
在了解人工智能如何参与和影响新闻生产之前,我们首先需要给人工智能下一个精准的定义:人工智能是一个与计算机系统执行能力有关的思想和技术的集合,所执行的任务通常需要人类智慧才能完成。因此,即使是ChatGPT这样最前沿的AI产品,也依然需要人类的干预才能发生作用。
今年3月,由马斯克领衔千名业界和学界人士联署公开信要求暂停“训练”AI大模型,但此举却遭到比尔·盖茨等另一些人士的抵制,后者强调应将重点放在如何有效利用AI技术上。同样道理,一方面新技术带来的道德伦理和职业身份的挑战,让新闻从业者和公众感到担忧,但另一方面AI给新闻生产转型升级带来的机遇令人振奋。为进一步认识AI对新闻业的影响,本文将对AI赋能新闻生产的历史和现状进行梳理,厘清从媒介融合到人机协同的演进路径,并对AI赋能新闻生产的愿景、挑战及其应对提出方向性的建议。
一、历史:
AI赋能新闻生产的演进
按照人工智能技术的发展阶段和其参与新闻生产的深入程度,可以将新闻业中的人工智能技术划分为三个阶段:辅助增强、初步自动化与自动内容生成。
在辅助增强阶段,人工智能技术主要是作为辅助工具参与到新闻生产的过程中,以提高特定环节的生产效率。例如翻译软件、语音转文字程序、错别字检查工具等,都是AI作为工具服务于新闻生产特定环节。这一阶段,主流新闻媒体机构通过与企业合作开发,推出了各类人工智能工具来服务新闻生产。例如,2018年以来,路透社一直在使用一个名为Lynx Insight的内部项目,以帮助新闻记者分析数据、提出故事构想,甚至撰写一部分新闻内容。
为进一步了解不同媒介体制之下新闻行业对AI辅助增强技术的应用,本研究对9位分别来自人民日报、新华社、中央广播电视总台、财新、彭博社等媒体机构的新闻工作者进行了深度访谈,同时对照伦敦政治经济学院教授贝克特(Charlie Beckett)撰写的题为《新权力、新责任:新闻业和人工智能全球调查》的报告,探讨中外新闻业对AI技术的应用情况。根据新闻生产的流程和人工智能的技术特点,本研究对新闻生产中的AI辅助增强功能进行了如下类型学的分析,梳理出中西方新闻媒体参与者相同与不同的关注点(如表1所示)。
可以看出,中西方新闻媒体机构都已经广泛引入AI服务于新闻生产的主要环节,并存在着相似的AI技术使用场景,但在某些具体环节上也存在着使用的差异。从新闻采集来看,AI主要被运用在信息收集、舆情研判、数据分析等新闻生产的前期准备工作之中。相比之下,西方媒体更加注重AI的信息搜集能力,中国的主流媒体则更加注重AI的舆情监测功能。从新闻写作来看,人工智能技术可以帮助进行文本、图像、视频等内容的生成。在这一方面,西方媒体训练出大量自动新闻写作模型,并将其广泛投入到新闻实践之中。从新闻分发来看,人工智能技术在个性化推送层面拥有显著优势,中外媒体在这一层面都充分发挥了AI的技术优越性。
除了在特定的环节提供辅助增强功能之外,人工智能还逐渐发展出机器新闻写作的能力。在这一阶段,人工智能技术超越了对特定环节的辅助增强功能,逐渐能够实现独立的新闻文本生成。
早在2014年,美联社便开始与Automated Insights合作开发新闻机器人Wordsmith来进行自动化新闻写作,每周可以生成数百万篇文章。在国内,腾讯的Dreamwriter、今日头条的xiaomingbot、百度的Writing-bots和第一财经的DT稿王等,都是早期自动新闻写作机器人的代表。值得注意的是,这一阶段的机器新闻写作有一定的局限性,只能进行特定类型文本内容自动生成,例如体育报道、财经报道、气象地质报道和健康领域报道等。
ChatGPT的出现,标志着人工智能已经进入到人工智能自动生成内容(AIGC)的新阶段。机器人记者可以通过机器学习和深度学习算法,从海量的数据和信息中提取新闻价值,并自动生成高质量、独立的新闻报道和分析文章。
自ChatGPT问世以来,多家传统媒体和新媒体相继推出了使用生成式AI的计划。新闻网站“嗡嗡喂”(BuzzFeed)宣布将使用ChatGPT为其著名的性格测验提供支持。《纽约时报》使用ChatGPT创建了一个情人节消息生成器。英国《每日镜报》和《每日快报》出版商Reach表示,该公司成立了专门工作组研究如何利用ChatGPT辅助新闻写作,例如撰写交通和天气预报等新闻文体。此外,美联社、路透社、华盛顿邮报、英国广播公司、泰晤士报等主流媒体均开始使用ChatGPT等AI工具来制作内容,提供个性化产品并以此提高受众的参与度。国内互联网企业百度开发的“文心一言”也宣布接入新京报、澎湃新闻、广州日报、中国妇女报等媒体,开始与新闻媒体进行深入的合作。
随着AI的发展和普及,其在新闻生产中的应用也将带来生产成本的降低和生产力的提升。例如,机器人记者可以通过自动化和智能化的方式,大幅度降低人力和物力成本,从而减轻新闻机构的财务压力和经营风险。此外,通过自动化和智能化的方式,人工智能技术可以解放出更多编辑和记者的生产力,从而生产更高质量、更有价值的新闻内容。
二、现状:
AI赋能新闻生产的三大挑战
2023年3月,全球首个AI生成新闻平台NewsGPT问世。该平台通过收集来自社交媒体、新闻网站和政府机构等广泛的信息来源来生成新闻,号称“没有记者,也没有偏见,旨在为世界各地的读者提供公正的、基于事实的新闻”。虽然人工智能的发展和进步使得新闻生产的数量和质量都得到了显著提升,但是我们也需要正视在人工智能深度介入新闻生产的当下,新闻业所面临的内容生产局限与挑战,即人工智能给新闻行业所带来的“信息危机”。
(一)内容的平庸与偏向
首先,自动生成的内容往往存在着浅表的问题。尽管人工智能技术在生成文本方面已经取得了很大进步,但是其生成的内容往往只是针对事件的客观描述,并不能像人类记者那样深入挖掘新闻事件的内部和背景,也不具备独特的洞见和视角,是“一本正经的胡说八道”。
一方面,人工智能生成的内容通常缺乏一手信源和原创内容,这也是新闻报道的核心竞争力。由于无法直接接触到新闻事件现场或者与相关人员进行面对面交流,人工智能在报道时难以获得真实的现场信息和细节,导致其生产的内容多是泛泛而谈,缺少细节的补充。另一方面,人工智能只能基于互联网上已有的信息进行文本撰写,这就代表着其输出的内容势必不是一手信息和原创内容,信息增量难以保证,新闻的价值也会因此大打折扣。
此外,由于人工智能技术自身的限制,其在生成文本时可能会存在一定的偏向性,进而影响到新闻的客观性和公正性。例如,近期火爆的Dall-E、Stable Diffusion等人工智能图像生成模型放大了人口刻板印象,尤其反映在性别歧视、文化偏见等方面。当提示创建“清洁人员”图像时,这些人工智能图像生成模型生成的所有图像都是女性,但如果要求其生成“工程师”时,所有的生成图像则都是男性。
(二)数据的隐私与版权
AI赋能新闻生产还面临技术对数据所有权和隐私信息的挑战。大语言模型通过前期输入大量的内容来进行机器学习和训练,而这些输入的信息往往没有经过数据所有平台或者用户个人的许可。
大量用户的个人信息在用户或平台不知情的前提下,被ChatGPT等大语言模型收集到语料库中进行机器学习,违反了欧洲《通用信息保护》(GDPR)等隐私数据保护法例。意大利因此已经禁止在境内使用ChatGPT,英国、爱尔兰等欧洲国家也启动了针对ChatGPT数据隐私问题的调查。
此外,AI也往往在数据和信息版权方面存在争议。诞生不到半年的时间,ChatGPT已经陷入与多家内容平台的纠纷之中。科技新闻网站CNET使用ChatGPT撰写了多篇文章,不仅被指出内容存在多处错误,且被发现这些文章剽窃了其他受保护的信息来源。社交平台“红迪网”(Reddit)也宣布,将向微软、谷歌、OpenAI等公司收取数据使用费,因为这些企业都通过其应用程序编程接口(API),使用Reddit的平台内容来训练AI聊天机器人。
(三)信息的真实与造假
虽然人工智能可以从互联网上抓取大量的信息,但是其中的真实性和可信度却难以保证,这就容易引发新闻报道的误解或者失实。同时,人工智能自动生成内容的另一重大风险——多模态虚假信息的生成,也给新闻真实带来了更加复杂和难以识别的挑战。
1.虚假的文本信息
人工智能自动生成内容模型的出现,使得虚假信息的生成更加迅速且更具迷惑性。他们可以在短时间内生成大量虚假信息,并借由网络渠道广泛传播。此外,他们还会模仿人类的风格来润色内容,使得生产出的内容更加逼真,以致公众难以辨别真伪和来源。
ChatGPT会捏造事实,并编造出虚假的信息来源。美国加利福尼亚州的一位律师要求人工智能聊天机器人ChatGPT生成一份曾进行过性骚扰的法律学者名单,该程序则输出了一则关于乔治华盛顿大学某教授的性骚扰信息,还援引了《华盛顿邮报》2018年3月的一篇文章作为信息来源。但事实上,该教授从未被指控过性骚扰,AI所援引的《华盛顿邮报》报道更是不存在。当记者向由GPT-4(ChatGPT背后的引擎)提供支持的微软“必应”(Bing)提出同样的问题时,它则再次编造了针对该教授的虚假报道,并引用了他在《今日美国》上发表的一篇专栏文章。与此类似,ChatGPT最近捏造了澳大利亚的一名政客因贿赂入狱的消息,该政客因此要起诉OpenAI诽谤,这也将是全球首例针对人工智能机器人的诉讼案件。
人工智能之所以会生成虚假信息,一个重要原因是其对信息来源的把关不严,形成虚假信息污染语料库。AI本身缺乏区分真假信息的能力,这些大语言模型会广泛收集互联网上存在的各种信息,不经筛选地加入到其机器学习的语料库中。除了新闻网站、政府网页、Reddit和维基百科等传统的信息来源之外,ChatGPT还整合了来自4chan等网站的数据,而4chan是一个充斥着阴谋论和冒犯性内容的在线论坛。面对大语言模型不经筛选的语料输入,可以想见,未来大量的虚假信息会充斥在媒体平台之上。
2.多模态内容造假
除了人工智能自动生成文本编造的虚假信息之外,人工智能自动
生成模型所生成的多模态虚假信息也开始泛滥。DALL-E(OpenAI开发的基于GPT的文本转图像工具)、Stable Diffusion、Imagen、Midjourney是当下基于扩散模型(Diffusion model)被广泛应用的人工智能
生成工具。此外,Lensa和谷歌开发的Dreambooth也都是人工智能
生成的最新模型。这些工具和模型使得用户通过简单的文字描述,便可以迅速获取
。
人工智能
生成的普及带来了
造假的泛滥。2023年4月,几张由AIGC平台生成的
在全球社交网络疯传:美国前总统特朗普被捕,教皇穿着时尚的白色羽绒服,马斯克与通用汽车首席执行官手牵手。这些
看起来和现场拍摄的新闻摄影别无二致,如果没有事先被告知由人工智能生成,受众很难辨别其真伪。
由人工智能生成
模型造成的视觉虚假信息具有极高的隐蔽性和煽动性。一方面,它们和此前的 “深度造假”(deepfake)类似,通过视觉造假来迷惑受众。由于其生成的逼真程度,公众很难辨别真伪。另一方面,相较于文字造假,
造假等多模态内容造假更加直观和更具冲击力,会对观众产生更为强烈的情感影响。因此,这种来自视觉的多模态造假很可能带来更为严峻的社会危机。
更加值得注意的是,与Photoshop或deepfake软件制造的视觉造假不同,人工智能
生成模型只需输入几个简单的文本提示,便可在几秒钟内迅速生成视觉媒体信息,并借助社交媒体平台快速蔓延。这种虚假信息的“数字火灾”(digital fire)可以通过社交媒体平台快速传播虚假图像或视频,实现了病毒式的分发。
三、愿景:
从媒介融合到人机协同
虽然学界和业界的争论还在继续,但AI赋能新闻生产已经成为不可逆转的潮流,即便“暂停”也无法阻挡其星火燎原之势。与其担忧其所带来的新闻和社会危机,不如思考如何使人工智能更好地服务于新闻生产,并且尽可能规避其局限和不良影响。当前,媒体融合已经基本实现了从形态到机制层面的整合,但是想要实现媒体的深度融合,则需要实现从媒介向媒介化的变革。人工智能的深度介入,推动媒介融合向人机协同进阶,实现了人与机器、媒介与技术在形态、机制、文化和内在逻辑层面的深度融合。
(一)生产流程的协同
伴随着AI介入新闻业,新闻生产的环节和流程实现了融合与协同。新闻生产主要包括信息采集、内容生产和新闻分发三个主要的环节,而人工智能技术的深度参与将打破三个环节之间的壁垒。
人工智能技术可以将信息采集和内容生产集中在自动内容生成模型中进行,即新闻工作者不需要介入,便可直接从人工智能模型之中获取一篇经过信息收集和内容编排的完整稿件。当前,NewsGPT的出现已经实现了新闻采集和新闻写作的协同。
未来,伴随着人工智能技术的进一步发展,新闻分发环节也很有可能进一步被人工智能技术所融合。在自动内容生成模型完成信息采集和内容生产两个环节之后,AI可以借助算法技术直接将生成内容分发给目标用户,实现完整的生产流程协同。
(二)生产主体的协同
在生产主体层面,人工智能技术的渗透使得不同分工的新闻工作者打破各自的职业边界、开始走向协同,塑造了真正的全媒体新闻工作者。
在AI赋能新闻生产之前,新闻编辑、文字记者、摄影记者、剪辑师等不同工种新闻工作者的分工十分明确。但是伴随着人工智能技术进入新闻生产的各个流程之后,这些不同职业分工之间的边界也开始逐渐消弭,新闻工作者可以借助技术的力量成为真正的多面手。
新闻记者可以将采集到的一手素材上传给自动内容生成模型,借助技术的力量来梳理生成新闻稿件,淡化新闻编辑的角色;新闻编辑也同样可以通过自然语言处理大模型来搜寻资料和数据,有效节省在信息采集上的工作量。
(三)生产关系的协同
AI赋能新闻生产最根本的就是实现人与机器的生产关系协同。伴随着人工智能技术的发展,其功能越来越强大,能够发挥作用的领域也愈加广泛。因此,原来人与机器的控制与被控制关系逐渐演变为更为平等的协作关系。
在弱AI时代,技术能帮助新闻工作者进行的新闻生产活动十分有限,例如翻译、语音转文字、错别字检查、数据计算等。这个时候的人工智能技术更多的是作为辅助工具被人类记者所使用。但是伴随着人工智能技术的高速迭代,当下的大模型已然能够自动生成文本,进行更为全面的新闻生产工作。
需要明确的是,AI赋能新闻生产始终离不开人类的主导。ChatGPT需要新闻工作者的主导,作为协助他们处理事务的工具,而不是作为代替记者工作的独立产品。换言之,人机协同仍然是今后一段时间内AI赋能新闻生产的主要模式。
四、反思与应对
当下,AI赋能新闻生产已经成为业界共识,其作为新闻生产辅助工具的应用,已经在提高新闻生产效率、质量和商业价值方面发挥了重要作用。随着人工智能技术的不断发展和进步,其在新闻生产中的应用也将面临更多的机遇和挑战。为了应对当下和未来AI赋能新闻生产的种种新现象,我们需要从生产观念、职业身份、职业合法性和人机互动层面进行反思与应对。
(一)生产力与创造力之争
在当下和未来相当长的一段时间,AI赋能新闻生产最大的作用是解放和发展生产力。一方面,人工智能投入到新闻生产之中,使得大量新闻工作者从重复劳动中解放出来,得以专注于创造性工作;另一方面,人工智能生产的高速度和高数量,也大大提升了生产效率。
值得警惕的是,机器在解放生产力的同时,也存在消弭新闻工作者创造力的风险。当ChatGPT真正成为新闻生产环节中不可缺少的工具时,新闻工作者将会越来越依赖该系统进行内容创作。如果新闻工作者一味沉浸于技术带来的便利、懈怠高质量的内容生产,其创造力将逐渐被磨灭。届时,人工智能就可能真正由助手“上位”成为主人,低质量的人工智能生成内容也将充斥我们的媒体平台。
解放生产力和提升创造力本身并不矛盾。我们期待的是在解放生产力的同时,将更多精力和人类智慧投入到创造力的提升上。但是思维惰性和技术依赖也可能将新闻工作者和整个新闻业拖入创造力颓靡的深渊。
(二)记者的身份认同之变
新的技术干预带来的是新闻工作者工作职能和身份认同的革新。当下,新技术的层出不穷使得我们生产和接收到的信息比历史上任何时候都多,信息过载已经成为受众进行媒体接触时的一大挑战。
AI赋能新闻生产带来了信息过载、错误信息和低质量信息的信息危机。新技术的层出不穷带来了信息和数据的爆炸式增长,我们依然身处一个信息过载的世界,这使得过滤掉不重要的信息变得更具挑战性。面对新技术带来的新现象,新闻工作者也有必要调整对自身职业身份的认知,在新的媒介环境中,重新锚定个体的职业身份。
牛津大学互联网研究所采访了150多名记者和新闻出版商,发现人工智能有可能使记者更容易转录采访或快速阅读数据集,但准确性、克服偏见和数据来源等一系列问题,仍然在很大程度上取决于人类判断。本研究也对9位媒体记者进行了深度访谈,其中一个共识是ChatGPT等大语言模型可以在短时间内生成大量的新闻文本,使得公众难以接触到真正需要的信息。
因此,在人工智能时代,记者的任务不仅仅是生产新闻,更重要的是做好信息筛选和新闻把关,即新闻工作者如何从海量的资讯之中选取最有价值的信息传达给受众。面对全方位的信息危机,记者的角色更多地从信息生产者转变为信息把关者。因此,我们除了关注如何利用人工智能生产讯息,更要思考如何借助人工智能来过滤噪音、核查事实、把关关键信息。
(三)新闻工作者的合法性
面对ChaGPT对于各行各业的侵入,新闻工作者当下最关心的一个问题是:新闻工作者是否会被取代?新闻行业是否会消亡?针对这一问题,专家学者们出现了不同的声音。
不同媒体机构对AI掌握和使用程度的差异,可能会导致部分新闻机构的发展或消亡。自动内容生成工具会让部分新闻工作者失业,在新闻内容更加机械化的新闻文体中,例如体育报道、财务报告等,AI正在或者已经取代人类。
本研究对NewsGPT一周内(4月19日―4月25日)发布的新闻报道进行了内容分析,发现其报道类型十分多样,涵盖了政治、军事、经济、科技、体育等多个领域。但是其报道的内容较为简略,多数报道的字数在130―230个单词之间。报道的内容多为针对事件的描述,缺少深度报道所需要的分析与解读。
可以看出,人工智能技术将会取代新闻生产中的部分机械性劳动,但是完全取代新闻工作者则为时尚早。AI赋能新闻生产已然成为一种现实。面对来势汹汹的ChatGPT,我们不必过于恐慌。虽然人工智能对新闻生产的变革势不可挡,但是远未发展到替代人类记者和编辑的地步。ChatGPT在新闻业的应用仅停留在辅助功能,只能作为新闻生产的助理,无法作为新闻生产的原创者。
此外,伴随着AI与新闻业的深度融合,新闻行业也将会出现更多新的职位,例如算法工程师、模型训练师等,这些职业的出现和存在将使得AI真正深度嵌入到新闻生产之中。
(四)媒介素养与AI素养
在人工智能与新闻业深度融合的未来,我们更需要不断提升社会公众的判断力,以应对虚假信息和低质量信息带来的信息危机。因此,有必要将媒介素养教育提升到AI素养的维度,从更为宏观的视角来培养公众的技术辨别能力。
媒介素养是个人和媒介共同培养的结果,同时也可能受到政治参与的影响。因此,公众媒介素养和AI素养的提升,是一个多方努力的结果。AI素养的提升首先需要官方的干预。2023年4月,中央网信办发布了《生成式人工智能服务管理办法(征求意见稿)》,生成式AI的监管也逐渐纳入到政府议程中来。基于这一管理办法,我国的生成式AI将得到更为规范的发展,一定程度上规避ChatGPT、Midjourney等平台存在的问题。
AI素养的培养是一个长期的过程,需要伴随着智能媒介的普及来逐步实现。就像智能手机从诞生到普及,短短几年时间内,社会公众已经能熟练使用各大品牌的智能手机,并且具有了一定的数字素养。可以想见,伴随着ChatGPT等自动生成内容人工智能技术的发展和普及,公众也会逐渐适应人工智能产品的使用方式和生产逻辑。
五、总结与展望
从1950年图灵测试的提出到2022年ChatGPT的问世,72年时间里,人类见证了AI从设想到民用的现实。从某种意义上讲,技术不是在解放和发展生产力,技术就是生产力本身。人工智能技术的发展让新闻业在技术主义的赞歌和人本主义的固守间摇摆。如何看待和使用人工智能,成为未来新闻工作者与人工智能相处必须要思考和解决的问题。
面对AI给新闻业带来的新机遇,新闻工作者要主动适应其技术逻辑,通过掌握AI的使用方法和手段,使其更好地参与和服务新闻生产。AIGC的出现,使得多模态的内容生产成为现实,这也要求新闻工作者在与技术的竞争之中要以质取胜。思辨的内容、深刻的思想,是人类不被AI取代的核心竞争力。与此同时,我们也应正视AI带来的信息过载、虚假信息等信息危机。信息危机的出现,不只是新闻业的难题,更是包含政府、公众在内的全社会共同面临的问题。完善的信息保护法例、高素质的智能公众、全面的媒体把关,都是信息危机时代我们维护信息价值的出路。
随着GPT-4、GPT-5乃至更具变革性的新的AI技术的不断问世,人工智能会不断带给包括新闻业在内的各行各业以新的冲击。如何在社会的齿轮之上锚定人类的位置,将技术融合进社会发展的浪潮之中,是技术革命发生时我们需要不断思考的课题。
(载本刊2023年第6期。注释从略。学术引用请参考原文。)
转自:“再建巴别塔”微信公众号
如有侵权,请联系本站删除!