虚假新闻的崛起很可能给民主、经济和公共卫生带来潜在的灾难性的后果,关于它如何以及为什么会在网上传播开来的科学研究目前才刚刚起步。直到2018年,绝大多数有关虚假新闻的科学研究都只能分析很少的一些孤立的样本,或者针对某个故事的传播进行案例研究,而且每次研究的对象都是一些孤立的个案。所以,我和我的同事苏鲁什·沃梭基、德布·罗伊决定着手改变这一现状,2018年3月,我们在《科学》杂志上发表了已经进行了长达10年的关于虚假新闻在网络上传播的研究报告。
在这项研究中,我们与推特直接合作,研究了从2006年推特成立一直到2017年所有曾经在这个平台上传播的、经过事实核查的真实新闻和虚假新闻的传播方式。我们从推特的历史档案中提取了那些经过事实核查的虚假新闻的推文,其中包括大约12.6万条被反复转发的推文,这些推文经过300万人超过450万次的转发在网络上传播开来。在将有关新闻(推文)分为真假两类的过程中,我们使用了6家独立的事实核查组织提供的信息,而这些组织对相关新闻的真实性表现出了95%~98%的一致性。然后,我们又雇用了一些学生,让他们在麻省理工学院和威尔斯利学院的校园内独立核查上述几家事实核查机构在选择那些经过反复转发的推文时是否存在偏见。
一旦我们有了一个全面的数据库,其中包含自推特问世以来的10年间各种经过事实核查的谣言,我们就可以搜索有哪些推文曾经提到过这些谣言,然后通过反向追踪这些谣言的转发链条,找出“原始”的推文(即第一篇在推特上提到这些谣言的推文),这样我们就可以重建这些谣言在网上通过转发进行传播的整个过程(实际上,这个过程是众多拥有单一共同源头的完整转发链条所组成的集合)。在我们把完整的转发链条图形化以后,整个转发的过程呈现出了一种奇异的、让人感到非常陌生的形态。一般来讲,这个过程的图形会从原始的推文开始,呈放射状向四周发散,通过转发扩散开来,接着,每一个方向上都会形成新的转发链条,而这些链条看上去就好像是从中心向外延伸的水母的触须。我们在下图中画出了这些虚假新闻众多转发链条中的一条(见下图),用数学的方式描绘了这些虚假新闻随着时间的推移在推特的用户群中不断被转发并传播的过程,进而分析了虚假新闻的传播是如何变得与真实新闻的传播不同的。
一个虚假的新闻故事通过推特进行传播的数据透视图像。长线条代表了更长的转发链条,显示了虚假新闻的传播范围更广,渗透程度更深。上述结果发表在《科学》杂志上。
这个发现既让我们感到惊讶,又让我们感到担忧。我们发现,与所有类别的真实信息相比,虚假新闻会传播得更远、更快,而且渗透的程度会更深、范围会更广。有时候,后者甚至会超出前者一个数量级。虽然真实信息很少会扩散到1000人以上的群体中,但前1%的虚假新闻转发链可以很轻松地扩散到10万人的群体中。把真实信息传播给1500人所需要的时间大约是把虚假信息传播给同样数量的人所需时间的6倍,而把前者的原始推文传播给10个转发人所需的时间又是把后者传播给同样数量的转发人所需时间的20倍。虚假信息的传播范围明显比真实信息更广,而且在转发链每个不同的“深度”层次上,虚假信息被转发的次数都比真实信息多(每一次转发都会将原始的推文传播得更远,在这个过程中就会产生一条新的转发链条,或者多次转发的层叠。在这样一条转发链条上,转发或层叠的次数就是我们所说的“深度”)。
与其他任何类别的虚假新闻相比,虚假政治新闻的传播范围更广,渗透程度更深,影响到的人更多,因此在网上的热度更高。虚假政治新闻影响超过2万人的速度几乎是其他所有类型的虚假新闻影响仅1万人的速度的三倍。涉及政治和都市逸闻的新闻的传播速度可以说是所有新闻当中最快的,也是网上热度最高的。即便对社交账号持有人的年龄、活跃程度、粉丝数量以及在原始推文下方进行评论的人数,甚至对原始推文的作者是不是一个经过验证的用户等各项因素进行控制,虚假信息被转发的概率仍然要比真实信息高出70%。
或许有人会认为,可以用传播虚假新闻的人的性格特征来解释为什么虚假信息的传播速度比真实信息的传播速度快很多,但数据告诉我们,情况并非如此。比如,有人可能会怀疑,那些传播虚假信息的人拥有更多粉丝,关注更多的人,更频繁地在推特上发帖,更经常地使用经过“认证”的账号,或者注册推特的时间更长。事实上,情况却恰恰相反。平均来讲,那些散布虚假新闻的人的粉丝数量明显更少,他们自己关注的人也寥寥无几,他们在推特上的活跃度非常低,而且几乎从不使用经过认证的账号,另外,他们注册推特的时间一般都很短。换句话说,尽管有上述这些差异,但虚假新闻比真实新闻传播得更远、更快,渗透的程度更深且范围更广的原因并不在这些人的身上。那么,虚假新闻为什么能传播开来,又是如何传播开来的呢?谎言在网上的传播,实际上是在一个人们意想不到的共生关系中,在相互协同的机器人与一些毫不知情的人类进行某种复杂的互动后得以实现的。
社交机器人(由软件控制的社交媒体账号)是虚假新闻得以传播的一个重要因素。在横跨了10年时间、范围更加广泛的来自推特的样本数据中,我们也看到了这一点。社交机器人在网上传播谎言的方式既令人感到不安,又令人非常着迷。
社交机器人放大虚假新闻的方式令人感到非常惊讶,首先,在虚假新闻发布后的几秒钟内,社交机器人就会捕捉到这些新闻,然后自动进行大范围的转发,它们的程序就是这样设计的。所以,最初传播虚假新闻的人更有可能是机器人,而不是人类。回想一下我们在此前图中演示的虚假新闻在推特中通过层层转发而形成的那种放射状的形态,这种形态的绝大部分都是由机器人形成的。接下来发生的事情验证了这种策略的有效性,因为之后的大部分转发都是由人类完成的。机器人早期在推特上的活动引发了人类不成比例的参与,所以这些被机器人捕捉到的虚假新闻开始形成众多不断向外延伸的转发链条,但最终还是需要由人类通过炒作机器的网络把这些虚假新闻传播开来。
其次,机器人会不断地提到一些有影响力的人。如果它们能够让一个有影响力的人来转发这些虚假新闻,那么这些虚假新闻马上就会被放大,而且还会被合理化。举了一个例子。有一个机器人曾经19次提到了@realDonaldTrump(特朗普的推特账号),而且它每次都转发这样一条虚假新闻:在2016年的总统大选中,有数百万名非法移民也参与了投票。当有影响力的人士被愚弄并开始分享这些内容时,这种策略就起了作用。例如,特朗普曾经在很多场合转发过一些已经被确认是由机器人发出来的内容,这就使那些内容好像得到了证实,进而使这些错误信息在推特上被广泛地传播开来。实际上,正是特朗普将数百万名非法移民在2016年总统大选中参与了投票这一错误信息当成了官方的话题。
但是,如果没有人类,机器人就无法传播虚假新闻。最终,人类和机器人在虚假新闻的传播过程中共同扮演了某种共生的角色:通过诱导人类,机器人实现了虚假新闻的分享,而人类又通过炒作机器把虚假新闻传播到了更大的范围。任何利用错误信息开展的活动的最终目标都是对一些人进行误导,而且也只有人类才会进行诸如投票、抗议、抵制各种产品等一系列的活动,当然还包括决定是否让他们的孩子接种疫苗等。这些深层次的人类决策过程正是虚假新闻想要进行诱导并施加影响的对象,而机器人只不过是达成这一目的的工具。但是,如果人类就是虚假新闻活动的目标,而且对它们的传播还如此关键,那么我们为什么会被虚假新闻吸引?我们为什么还会主动分享这些错误信息呢?
一种解释是“新奇性假设”。新奇的东西会吸引人的注意力,因为它会让人感到惊讶并引起人们情绪上的共鸣,而且它还会更新或改变我们对这个世界的理解。新奇的东西会鼓励人们进行分享,因为它会在无形中传达出分享者的社会地位,分享者会被视为一个“知情人”或者能够接触“内幕消息”的人。在意识到了这些之后,我们决定利用我们在研究推特的10年间所搜集的数据进行测试,看一看虚假新闻是否真的比真实新闻更加新奇。我们还具体核查了推特用户是否更有可能转发那些看起来更加新奇的信息。
为了衡量所谓的“新奇性”,我们观察了那些既分享真实新闻,也分享各种谣言的用户,然后把谣言推文的内容与在用户决定转发这些谣言前60天内曾经接触过的所有推文的内容进行了比较。在多种不同的衡量新奇性的标准下,我们的发现始终都是一致的:虚假新闻确实比真实新闻更加新奇,而且人们也更倾向于分享一些新奇的信息。这个结果在所谓的“注意力经济”的背景下是完全符合逻辑的。在社交媒体中,本来就存在各种竞争非常激烈的思想和行为模式,正是在这样一种背景下,新奇性吸引了我们本就稀缺的注意力,激发了我们在网上看到的各种消费和分享行为。
本文整理摘编自《炒作机器:社交时代的群体盲区》锡南·阿拉尔著中信出版集团。
如有侵权,请联系本站删除!