从互联网阅读和浏览习惯,到智能手机定位数据,从智能手环的活动和睡眠模式数据,到锁定在我们细胞内的独特基因编码……我们面临越来越多的隐私泄露风险,脸书创始人马克·扎克伯格说,“隐私时代已经结束”。隐私真的已死吗?圣路易斯华盛顿大学法学院科赫杰出教授尼尔·理查兹告诉我们,隐私并未死去,也不该死去,许多宣扬“隐私之死”的人其实是在寻求隐私的死亡,以便自己从中获利。
隐私的未来就是我们社会的未来,因而我们每个人最好都能了解什么是隐私,为什么隐私如此重要,良好的隐私规则可以促进哪些宝贵而脆弱的基本人类价值,以及在这个很多人认为隐私已经死亡的时代,如何保护我们的隐私。最新出版的《隐私为什么很重要》一书,也许可以解答上述这些疑问。
[美]尼尔•理查兹 著
彭诚信 主编
朱悦 嵇天枢 译
上海人民出版社|2023.1
定价:84元
我们能控制自己的信息如何被使用吗?
隐私是关于控制?
如果消费者和公民对收集和使用人类信息的方式感到困惑,解决这个问题的一个合乎逻辑的办法可能是使他们重新控制这些信息。这种论点在隐私辩论中似乎无处不在。科技公司把“隐私是关于控制”作为至理名言。谷歌承诺“您可以在收集的信息和使用方式方面作出选择”,并提供各种各样的“隐私控制”。脸书在剑桥分析丑闻后继续把强调控制作为隐私问题的解决方案。扎克伯格提出了一些据称保护隐私的新脸书会坚持的关键性原则,这些原则的第一条是“私密互动,人们应该有一个简单、亲密的地方,在那里他们可以清楚地控制谁可以与他们交流,并相信没有人能获得他们分享的东西”。作为后续,脸书应用的广告吹捧“你看到了,你控制了”,并吹嘘它们将透明度和控制度推上了新的水平。
让消费者控制如何收集和使用他们的数据能有什么问题呢?认为隐私是关于控制允许多样化的消费者作出反映其不同喜好的选择。按照这个逻辑,隐私问题也仅仅源于我们没有得到控制我们的信息的权利,对吧?
不幸的是,事情并不是那么简单。不过,可以简单说明的是,“隐私是关于控制”在过去30年中,特别是在美国,在保护人类隐私方面是一个巨大的失败。“隐私是关于控制”是一种幻想,尽管像最好的幻想一样,它是一种极具吸引力的幻想。
一系列眼花缭乱的隐私设置选项
隐私是关于控制的第一个问题是控制会压垮用户。此处理论上的隐私是关于控制在实践中变成了隐私自我管理。更多的控制意味着更多的选择,而尽管这在理论上可能是很好,但我们可以给予的选择的绝对数量可以是压倒性的。移动应用程序可以向用户索取两百多个权限,甚至平均每个应用程序也可以索取五个权限。您的手机和计算机上有多少个应用程序?伍德罗·赫佐格解释说:“认为隐私是关于控制的问题在于,如果希望拥有更多隐私的愿望得到响应,那就意味着我们将得到更多的控制权,而最终我们将被巨大的控制权数量扼杀。”由于这种观点,商家、平台、开发者向我们提供了“一系列令人眼花缭乱的转换、删除按钮和隐私设置选项”。当一家公司对隐私丑闻的反应是“更多的控制”时,这就意味着更令人迷惑的选择,而不是更易懂的选择,这使问题会恶化而不是变得更好。正如学者广泛记载的那样,我们的同意是被制造出来的,所以我们只需点击“同意”。但是谈论“让人掌控”对高管来说是一个很好的公关,它分散了我们对权力和操纵的真正问题的注意力。
此外,所有这些都假定我们甚至知道我们同意了什么。每一个数字服务和网站都有自己的隐私政策——“告知和选择”的“告知”部分——但通常我们得到的真正能够使我们控制自己隐私的信息也是无可救药地不足。隐私政策的范围很广,从大谈特谈前提却缺少有信息量的细节的空洞语言,到只能借助法律学位和咖啡因才能破译的密集、浮夸的表达。或长或短,这些隐私协议模糊并且种类繁多。我们每天都会遇到太多隐私协议,以至于我们不可能真正掌握它们当中的任何一个,更不用说掌握所有这些隐私协议了。正如亚马逊的隐私协议曾清楚说明的一样:“我们的业务不断变化,我们的隐私通告也会改变。您应该经常查看我们的网站,以查看最近的变化。”
无论如何,隐私政策的数量太大了。2009年的一项著名研究估计,如果我们在一个典型的年份里快速阅读我们遇到的每一个网站的隐私政策, 我们需要在这个任务上花费76个工作日。挪威消费者委员会2016年的一项研究发现,典型智能手机上最常见的33个应用程序的隐私政策超过25万字——比《新约》更长,是这本书长度的两倍——而且如果你将这些协议朗读出来,需要24个小时以上才能完成。调查人员总结道:“目前数字服务的条款和条件状况近乎荒谬。它们的范围、长度和复杂性意味着几乎不可能作出明智的决定。”对个人信息的控制在抽象中可能具有吸引力,但在实践中这是一项令人崩溃的义务。
默认选项的设置
隐私是关于控制的第二个问题是,当涉及隐私时,控制是一种错觉。我们容易忘记互联网并不是自然存在的。它是人类建造的人类建筑,由人类为人类目的所作的决定组成。我们现在得到的互联网是这样一个接口,这个管理隐私的接口是由人类工程师为了满足他们的老板而建造的,他们的目的不是赋予人类权力(尽管硅谷的广告声称他们是)。围绕控制“用户”的所有说辞都掩盖了这样一个事实,即工程师设计他们的技术以产生特定的结果。这些设计选择限制了使用该技术的人类可用选项的范围。公司决定我们可以勾选的选项框。它们还决定了基本隐私仪表板中包含哪一组选择,“高级设置”中包含哪些选择,更重要的是,“用户”根本无法作出哪些选择。例如,脸书让“用户”管理位置设置,关闭照片中的面部识别(默认选项原本被设置为与公司“共享”直到用户强烈抗议并改变这个选择为止),但“控制”脸书收集大量有关其客户的其他人类信息的“选择”是永远不会被提供的。至关重要的是,通过设计技术和设置默认选项,脸书的工程师不仅知道普通用户可能选择哪些选项,而且还可以利用选择架构的微调效果来达到他们想要的结果,并为他们的商业利益服务。设计可以塑造结果,拥有数百万(或数十亿)“用户”的大型科技公司可以对这些人类受试者进行大规模的科学实验,使用A/B测试来弄清楚哪些选项、选择、决策结构、措辞甚至配色方案的混合体产生了公司想要的结果。利用行为经济学的见解,公司创造了操纵界面,利用我们更喜欢大的闪亮多彩的按钮,而忽略小的暗灰色按钮的内在倾向。(“删除我的账号”的按钮永远是又小又灰的,而不是又大又亮的。)他们还可能羞辱我们以使我们对扣留数据或拒绝选择感到不适。有时,平台会设计在线服务,通过游戏化来帮助人们进行过度共享,例如保持连胜,或在脸书上让人们分享旧帖子或祝贺他人。公司知道冲动分享是如何实现的,因此它们建立了一个完整的系统,使冲动分享尽可能容易。
同意理论的空白区域
隐私是关于控制的最后一个问题是,隐私关于控制,是不够的。技术主管和一些监管者的谈话似乎表明解决每一个隐私问题的方法是给予更多的控制、更多的仪表板、更清晰的隐私政策,以及继续将更多的隐私工作倾倒在人们已经疲惫不堪和困惑的脑海中。我们已经看到当信息收集中存在许多我们不能察觉或者明白的地方的时候,迷恋信息控制是毫无成效的。而隐私,正如我们所看到的,是一种社会价值;我们的隐私不仅取决于我们自己作出的选择,而且取决于社会上其他人的选择。在这方面,隐私就像公共卫生或环境一样。在应对新冠肺炎疫情时,我们指望其他人戴上口罩,遵循社交距离准则,并接种疫苗以帮助我们渡过公共和私人健康危机。我们无法独自完成这些工作,其他人的糟糕或有限的选择使得公共卫生状况比它本来的情况更糟。即使我们在隐私控制上进行超人的努力,以空中交通管制员的勤奋管理仪表板,阅读我们的隐私政策并定期回查,看看亚马逊是否作出了改变,其他人不可避免的行动已改变了隐私环境。普通消费者会屈服于祖博夫的“精神麻木”,他们的意志会逐渐被磨损直至听任和接受他们那被企业炮制出的同意。
有时候,我们几乎或根本无法阻止其他人披露有关我们的信息。如果公司建立了依赖信息披露的定价系统,例如汽车保险的“安全司机”折扣取决于您是否同意在您的汽车中安装黑匣子数据控制器,特别是如果此类盒子成为标准配置,那么这种情况完全可能会发生。或者当孩子的学校决定使用“学习管理系统”或其他只有学校才能同意的具有隐私实践的软件时。抑或者,当有人向一家公司披露他们的遗传数据时,由于血缘亲属具有很高的遗传相似性,这意味着他们也分享了有关其亲密家庭成员的敏感信息。也许更重要的是,这类隐私泄漏完全发生在我们可以同意的领域之外,这种同意理论的空白区域进一步证明了隐私是关于控制这一观点无法承受强加于它的巨大压力。
因此,隐私是关于控制的限制是多方面的。它易于表述和理解并且在理论上显得高尚,但在实践中却是一个烟幕弹。公司在烟幕下控制着人类,而不是人类控制着他们的数据。问题不在于控制和选择总是很糟糕——很难想象一个美好的生活或一个自由的社会不给人们提供真正的、选择和控制他们自己的生活的选项。但正如在21世纪的数字世界中所实践的那样,通过提升虚构的控制,而忽略选择的架构、设计、默认和权力,隐私是关于控制的论调是一种剥夺权力的形式而不是所谓的解放力量。我们当然应该专注于为数字消费者提供一套有意义的选择,而不是绝大多数消费者面对的大量严格控制和最终控制有限的选择。我们需要改变我们的观点。我们应该不仅仅关注个人,而是关注我们的公共规范、构建的数字基础架构以及“控制”在实践中而非理论中的运作方式。“隐私是关于权力,而不是控制”。
(本文节选自《隐私为什么很重要》第3章,标题及正文略有删改)
转自:“法学学术前沿”微信公众号
如有侵权,请联系本站删除!