数字社会人权保护的伦理进路
作者:李建新,郑州大学法学院副教授、硕士生导师、博士生导师。
来源:《河北法学》2022年第12期。
为塑造法学学术前沿微信公众平台的风格,微信推送的外标题系编辑根据文章理解所加,不代表作者立场。
摘 要
以网络和人工智能技术为基础的数字社会对于传统社会的公平、正义以及尊严等人权提出了严峻而广泛的挑战。侵犯隐私、泄露个人信息、“黑箱”“暗算”等层出不穷的侵权现象似乎难以从单个的法律规范中寻求有力的权利救济。以数字人权的理论进行总体统摄性保护的思路,遇到了传统人权理论的有力诘难。此种境况下,法伦理学因道德规范具有的先行预设价值成为解决数字社会人权侵犯问题的重要路径。途径是把人权的基本权利转化为数字社会相关方的道德义务,进而形成制度化的伦理规范。在现代责任伦理的框架下建立数字社会人权保障的道德惩戒和道德激励,而不是完全依靠传统伦理学上的道德自觉。数字社会人权伦理保障的机制与已有的法律保障之间不存在对立,两者完全可以实现伦理与法律之间的二元互补和保障相容。
关键词:数字社会;人权;法伦理;责任伦理;道德激励
目 次
引 言
一、数字人权的理论主张与所受诘难
二、数字社会人权保护的伦理出路
三、数字社会人权保护的伦理规范
四、数字社会人权伦理保护的激励惩戒
五、数字社会人权保障的伦理与法律互补
结 语
引 言
“推动互联网、大数据、人工智能和实体经济深度融合”是党的十九大报告明确提出的任务,数字社会的概念已然呼之欲出。在数字社会不断发展,并为人类生活提供便捷的今天,公众对数字社会中无处不在的信息数据收集、分析越来越觉得权利被侵蚀,原来的社会歧视借助算法也形成了“暗算”“黑箱”,用户由于无法参与决策流程,不了解其背后的规律而遭受新的社会偏见与不公。在数据越来越资产化的今天,几乎所有的数据资源都由公民个人产生,而数据归属与使用权却完全掌控在商业机构与政府部门手里,产生了信息更加透明的个人和越来越幽暗的数据掌控者。数字社会加大了“信息鸿沟”和信息垄断,也加剧了社会不平等和贫富差距,损害了数字社会本应具有的公平和平等,使人权保障在数字社会面临严重的挑战。中国共产党和政府十分重视对人权的保障,2022年2月25日,中共中央政治局围绕我国人权保障事业举行了第三十七次集中学习。习近平总书记在组织学习报告中指出, 尊重和保障人权是中国共产党人的不懈追求。党的百年奋斗史,贯穿着党团结带领人民为争取人权、尊重人权、保障人权、发展人权而进行的不懈努力。我国开启了全面建设社会主义现代化国家、向第二个百年奋斗目标进军的新征程,我们要深刻认识做好人权工作的重要性和紧迫性,坚定不移走中国人权发展道路,更加重视尊重和保障人权,更好推动我国人权事业发展。不难看出,数字社会、网络空间的人权保障也是我国人权事业的组成部分。
法律人应对挑战通常的方式是诉诸法律权利,尤其是法律上最为基本的人权,面对层出不穷的网络权利侵犯,用数字人权进行统摄保护就成为一个重要的主张。本文第一部分关注数字人权的理论以及此主张受到诘难的情况,试图在数字人权主张受阻的情况下,寻求应对数字社会人权挑战的补充方式,也就是法伦理进路;第二部分讨论分析法律上的人权是否可以构成数字社会道德上的权利,数字社会的技术和数据掌控者是否应当承担相应的道德义务,如果是,他们所负担的这些道德义务是否涵盖人权的保护内容;第三部分探讨能否基于上述人权保护的道德义务形成有效的伦理规范,对承担数字社会人权保障义务的主体形成道德约束;第四部分讨论数字社会人权保障的伦理惩戒激励机制,指出传统道义论和功利主义在道德惩戒和激励方面都存在局限,现代责任伦理理论对维护数字社会人权伦理规范更可行,能够形成有效的道德惩戒。第五部分探讨数字社会人权保护问题中法律与伦理之间的关系,通过回顾从初期网络技术伦理治理到法律介入的发展过程,重点说明数字社会法律与伦理如何能够形成有效的互补和共治。最后是本文的简要结论。
一、数字人权的理论主张与所受诘难
学界虽未对数字人权这一概念做出明确界定,但早已围绕着数字网络空间人权理论展开了相关研究。数字人权最早被定义为“网络人权”, 郑宁认为,从网络人权在全球社会上的传播来看,有关网络人权的内涵进一步得以具体丰富,从明确网络人权是一种基础权利到明确政府对其保护有重要意义。陈峰提出通过人权标准建立“网络人权”的管制标准、基本原则、保障机构以及救济途径;赵玉林认为当互联网中信息表达权、隐私权、名誉权等基本权利与公共利益发生冲突时,应当对互联网领域的人权做出协调保障;孙南翔认为互联网自由包括表达、信息获得、基础设施建设与社会可获得等权利,其均属于互联网人权的范畴。以上主张可以说均从人权理论的角度涵摄网络中新出现的权利保护问题。随着互联网空间的数字信息技术迅猛发展,在网络人权的基础上不少学者提出数字人权的概念,认为数字人权形成了新一代的人权。1997年罗伯特·b·格尔曼依据1948年《世界人权宣言》提出《网络空间人权宣言》提案,提出了数字人权的概念。之后随着数字信息的发展,全球范围内举行了一系列对制定数字人权政策和法规有直接影响的公开辩论。2018年西班牙德乌斯托大学提出《数字环境中的德乌斯托人权宣言》,数字时代人权概念也多次被提及。徐显明认为数字人权属于第四代的和谐权、美好生活权。张文显认为数字人权要以人为本,要尊重人的权利及尊严,同时要以人权规范的伦理约束和规制数字人权的内容,并认为以“数字人权”为核心的第四代人权的新兴权利浪潮即将到来。
就笔者搜集到的文献看,马长山对数字人权作为“第四代人权”的理论主张论述地最为全面系统,他从信息革命发展动因、人权价值内核的根本转变以及关系架构方面系统论证数字人权作为新的“第四代人权”的观点。对此,刘志强提出了针锋相对的反诘,认为“数字人权”不构成第四代人权,仍属于第三代人权的范畴,理由是:“数字人权”并没有打破既定的人权概念框架结构和权利格局;并且就权利的基本性质而言,“数字人权”不符合权利的基本标准,难以实现基本权利的证成,不能作为一种基本权利;此外,“数字公民人权”没有宪法基础,不符合“人的尊严”准则和“最小化限度基础性”要求,因此不能被证立为宪法性法律未列举的基本权利。这样看来,诉诸新一代人权理论应对数字社会一系统权利挑战问题的思路受到了诘难。
不过,关于“数字人权”的理论争议,仍可以看出两种对立的理论主张具有共同的前提,这些前提包括:(1)都承认人权是值得保护的最基本的价值,也承认“数字人权”概念可以成立,尽管反驳者有所保留,不认为其构成第四代人权;(2)都承认数字社会人权受到挑战,只不过一个主张用新一代的人权应对,另一个主张没有突破已有的人权理论框架;(3)反驳者没有否认在数字社会中,“数字人权”或者人权的义务对象是数据和技术掌控者,互联网平台、商业公司、社会组织和国家;(4)对于数字社会新产生的权利挑战,反驳者也认为类似数据自决权与自主权具有人格尊严的价值,并且实际上没有完全否认目前的法律权利不能完全应对新的人权威胁和侵犯。这里不妨做个简单总结:数字社会人权同样需要保护,数字社会人权面临新的挑战和威胁不是已有的法律基本权利能够完全应对的,数据技术掌控者负有人权保障的义务,因为他们不是直接的数字人权的侵犯者就是相关者。数字人权理论主张的一个重要目的就是能够科予这些数据和技术掌握者新的人权性质的法律义务。为了避免不必要的理论争议,本文使用数字社会人权的概念统指网络空间一系列涉及基本权利保护的问题。退一步说,即便数字人权不构成新一代的人权,是否还有其他补充途径能够提供数字社会的人权保障?
二、数字社会人权保护的伦理出路
上述问题答案是肯定的。如果不是执着于特定的法律路径,而是着眼于问题解决的话,应对数字社会人权的威胁和挑战,至少还有一条思路可循,就是伦理进路。之所以说至少,是因为哈特曾指出,对于人们行为构成约束的规则有三种,分别是法律、道德和习俗,也就是说这三者都可能构成人们遵守的特定规则,去做或者不去做某事的理由。因此从理论上,除了法律和道德伦理,习俗也是一种能够产生行为约束的规范。当然,本文不涉及习俗的问题,主要从道德伦理和法律的角度分析数字社会的人权保护。从道德伦理的角度思考数字社会的人权保护,主要就是从义务和价值的规范伦理学的视角看待问题,这一视角通过要求人们遵从道德规范标准达到道德上的目的实现权利保障。伦理进路大体上需要解决三方面的问题:一是数字人权包含的各项权利诉求是否能够构成数字社会的道德权利?二是与此权利要求相关的主体是否应当承担相应的道德义务?三是违反上述的道德义务是否有惩戒机制,这些机制是制度性的还是非制度性的,或者兼而有之,这些道德惩戒能够形成有效约束吗?
(一)数字社会的权利诉求与数字社会的道德权利
人权的正当性以及所具有的道德权利,在现实的物理空间是毋庸置疑的,但是在由网络空间组成的数字社会,数字人权所包含的各项权利是否在网络空间具有道德权利的属性,这一看似简单的问题,却因为网络空间的特殊性,变得模糊不清了。需要论证和解决的问题是,对于现实世界人权中的自由、平等、尊严等道德权利,在网络空间表现为何;或者反过来说,数据权利所涉及的数据信息自主权、数据信息知情权、数据信息表达权、数据信息公开使用权、数据信息隐私权、数据信息财产权等,是否具备基本权利特征。人的基本权利,从根本上是人所要拥有的,同时也是属于人的权利,是作为人所应该有的根本尊严;权利是一项德性权利,尽管因为文化习俗差异,全球各地的人们对道德权利的理解可能不完全一样,但由于人性本质上是抽象的,德性权利在基础上存在着一致性;而权利的外延则是与个人的生存和成长相关联的一切权利,就可以从人权一般理论推出数字社会的一系列权利具有道德权利的属性。因为“人权表达人类意义上的共同、一般和共享的属性,这意味着,人与人之间的关系纽带不再被束缚于特定的物理空间和区域,而是在世界范围内寻找满足正当性价值的空间和地理环境。”
传统人权学说认为人之所以具有人的主体性,主要基于三个方面,第一,就人与其自身的角度而言,人的行为是为了满足自身的需要,如果人被物化或者被商品化,人的尊严即受到毁损,故而人权也就无法实现;第二,从人与自然的角度来看,人格是与自然相分离而存在的;第三,在人与人之间的关系上,传统人权学说认为应当尊重和保障每个个体的权利。人权学说的目的是保证人的主体性地位,科学技术的发展也是为了保证人的主体性,从而促进人的全面自由发展,不同时期人们因社会变化对自由的追求程度不同,但都是为了促进人类的主体性认识,强化公民的权利意识。由于互联网、大数据、人工智能等信息技术的迅猛发展,人们对世界的认识方式发生了改变,这也对传统人权学说中人与自身、人与自然及人与人之间的关系产生了风险,冲击了人的主体性地位。
在数字社会,数字和信息成为人的构成要素,每个人从出生到死亡的过程几乎都是以数据的方式存在于计算机当中。工业革命时代,人们利用蒸汽加快生产效率,数字经济时代,人们的社会生活多以数据的形态呈现,个人数据似乎呈现“透明化”的趋势,人逐渐对与自己相关的数据失去控制力;与此同时,由于大数据技术的快速发展,个人信息在公共领域更是暴露无遗,譬如在疫情时代,虽然公权力机关对某些数据做了匿名化处理,但是由于一些人掌握了“去匿名化”的技术,使得已被匿名处理的数据被公开化,这种情形对个人隐私权带来了前所未有的挑战。除此之外,算法在编程过程中对客体的描述只有0和1,人与客体之间的差别处于模糊状态,人的地位、尊严,以及人的主体性遭受破坏。那么现实空间中的人权在数字社会表现为何?或者说数字社会中哪些权利要求可以作为道德权利?目前学术界主要的理论进路有两个,一是将现实物理空间中已有的人权道德权利平移变换到数字社会与网络空间,并强调科学在价值上应该以人为本,以人的权益与尊重为最高目的。认为数字社会是现实社会的延伸,即便数字社会不是一般意义上的延伸,也没有形成与现实物理社会完全独立的空间,从这一点上,将现实物理社会已有的人权道德权利平移到数字社会顺理成章。二是从互联网空间自身的性质中推出人的基本权利预设,就是“随着网络化、数字化、智能化的发展,人们渐渐认识到,数据和信息已经不再是传统框架的权利客体,而是一种新兴的权利样态。”进一步推导出数字社会中,数据信息自主性权利、数据信息知情权、数据信息表达权、数据信息公开使用权、数据信息隐私权、数据信息财产权等具有人权的道德权利属性。可以看出上述两种主张都是以承认现有的人权价值、道德权利为前提,理由充分且不易反驳。因而,数字社会数字人权内含的一系列权利诉求,就具有较为充分的道德正当性。
(二)数字社会权力控制者的道德义务
自1948年联合国大会相继通过一系列国际人权宪章后,所有人都应该据此享有政治权利、经济权利、集体人权三类人权。“三代人权”理论的提出者,法国学者卡雷尔·瓦萨克认为每一代人权产生的背后都可称为一场革命,人权具有历史依赖性和社会依赖性,是与制度协同发展的。第一代人权旨在保护公民权和政治权利,保障个体自由,从而走出腐朽的封建制度;第二代人权提出的经济、社会、文化权利旨在保障平等,反抗资产阶级剥削和压迫;第三代人权主张的集体人权旨在促进公平、合理的新型国际秩序,反对全球社会中的大国霸权,保护发展中国家人民权益。上述三代人权,都基于国家与社会、公权力与个人权利的二元基本构架。现今的数字社会,开启了数字经济,是数字信息的革命。虽然它不是以战争的方式开启革命,但它是一场无硝烟的战争,其以数字信息革命实现人的解放,并改变生产生活关系。平台经济、数字经济在给人们带来便利的同时,各类平台依托技术和资金优势进行自我赋权,它们创设规则,拥有通知、删除,限制用户权益、警告、封号等权力,这种基于技术而形成的控制力在某种程度上产生的影响力甚至能够比肩国家和政府的公权力。以往国家\社会或者政府\市场的二元结构就被解组了,形成了国家\社会\网络技术平台等网络技术掌控者的格局。相应地,原来主要由国家承担的人权保护义务,也转变为数字社会国家和网络技术掌控者负担,因为掌握权力必有责任和义务。
在20世纪的工商业社会,谁掌握了石油谁就掌控了世界,在现今的数字社会,谁控制了数据,谁就是未来的领袖。数据掌控者不仅拥有权力,而且在从事数字经济活动中,打破了人权应该具有的道德秩序,倾向于将自己的喜好和价值判断注入到平台规则中,借由评级、分类、预测,销号,停止服务等方式行使权力,特别是拥有巨大影响力的数据平台,强迫用户接受单方制定的服务规则,用平台规则约束和限制,实际上在变相行使立法权,造成了新的不平等。这从一般的道德原则上,也使数字社会的数据掌控者因其权力行使造成的不平等、隐私侵犯、尊严侵犯等后果,负有恢复平等、尊严等人权价值的道德义务。
在网络数字空间,平台成为拥有私权力的主体的同时,作为公权力主体的政府和政府部门也凭借自身权威,加强了对数据和信息的处理、控制。在公共治理中利用算法控制公共政策体系达成治理目标。这些做法虽然提高了效率,但是极易发生算法的“专断”与“傲慢”,造成公民个人与政府的疏离,导致公民尊严和自由没有受到应有尊重。从伦理上看,政府由此就有了恢复人权道德价值的新义务。这样,无论是掌握公权力的政府还是掌握私权力的平台,都有维护人权道德权利的道德义务。这意味着,作为数字社会权力掌握者的政府和平台,就有道德义务约束自己的行为,维护道德上的善,维护人们的基本权利。当然,这种应然的义务有效履行不仅需要义务主体的道德自觉,更需要有效的机制约束。
三、数字社会人权保护的伦理规范
作为社会规范,道德伦理与法律相比,虽然不具有后者背后的国家强制力,但是从对人们行为的约束上,也具有不可小觑的力量。人类的存在不仅是物质和精神意义上的,也是道德上的,道德生活是人类物质和精神生活的升华。亚里士多德提出德性幸福既是人们存在的目的,也是人类实践方式。他在《尼各马可伦理学》的开篇就明确指出:“每种技艺与研究,同样地,人的每种实践与选择,都以某种善为目的。”在人类道德生活的进程中,社会舆论一直扮演着重要角色,用一种无形的力量保持维系道德机制的运行与发展。中国俗语中的“德高望重、众怒难犯、众望所归”等成语,均说明社会舆论作为一种强大的道德力量对个体道德形成的影响力。马克思对古代人类社会秩序研究后指出:“它所依赖的惩罚性制裁部分是舆论,部分是迷信。”社会舆论一直是维护社会道德秩序的强大力量,无论是传统社会还是当代社会,社会舆论对公共道德和社会风尚的影响有时会超过法律。英国科学家赫胥黎就发现人类社会存在这样的现象,“在许多情况下,人们所以这样做不那样做,并非出自对法律的畏惧,而是出自对同伴舆论的畏惧。”
(一)社会舆论对个体道德的影响
社会舆论影响个体道德行为的主要途径是道德评价。一般而言,社会舆论进行道德评价的情境方式主要有三,分别是“道德回应、道德反思和道德赏罚”,依靠这三个方式对个人道德价值取向进行强化、激发或者改变。
首先,通过道德回应,社会舆论虽然看不见,但却有着一种无形力量来维护和保障道德秩序形成和保持。一种道德价值的强化,通常通过社会道德舆论对舆论对象作出支持、认同,表明一致的态度等方式互动。人们通过舆论的互动回应,潜在地强化了道德舆论影响的正当性。比如我国的学雷锋日活动以及对于类似利他行为的舆论回应就强化了雷锋这种利他行为的正当性。
其次,通过“道德反思”,社会舆论可以加强某种道德上的“善”。和社会文明进步一样,社会的道德进步也是一种否定之否定的螺旋式进步,这其中,主要通过道德反思实现。从日常生活中可以观察到这样的现象,对于某种道德问题,通常是借助道德讨论进行道德反思的,这个过程是通过表达不同的观点进行辩论来达到反思和形成道德共识。比如前些年的南京“彭宇案”、广东“小悦悦案”,2017年的“郑州电梯劝阻吸烟案”等,经过公众的自觉反思推动了社会道德的进步,也强化了个体的道德内化。
最后,社会舆论以“道德赏罚”的方式加固或者改变个体的道德价值取向。社会舆论的“道德赏罚”与人类追求荣誉、拒斥耻辱的内心情感相契合。通过荣誉感和耻辱感社会心理的激发,促使人们作出道德舆论褒奖的向善行为,阻止人们作出道德舆论谴责的不道德的行为。社会舆论的“道德赏罚”方式不仅可以借助人们的荣辱心理直接作用于个人的道德内化,也为塑造美好、健康的社会风气提供了条件,间接地影响个体的道德价值取向。
即便是在网络数字社会,社会舆论也可以借助网络空间生成网络舆论,依赖网络的传播迅捷特性,更易于形成强大的舆论压力。就人权保护而言,因为人权本身就具有道德上的价值,所以更容易成为网络舆论维护的对象。不过,由于网络空间的特殊性,对于网络空间人权的保护显然不能只限于对个人的道德影响。而应该扩展到网络平台、网络技术组织、政府等掌控网络权力的组织,诉诸这些组织的伦理规范。这里补充说明一点,伦理学中道德和伦理词义上可以互换,道德通常用于个人,伦理则用于群体或组织。从规范伦理学的角度,网络平台、网络技术协会等组织和政府部门负有保护网络人权的道德义务和伦理责任。
(二)网络技术伦理与行业规范中的人权保护
如果仅仅依靠个体道德自律的伦理规范体系,显然已经无法适应当今的社会形势。为了避免数字社会出现“有组织不负责任的情况”,建立一套规范伦理的制度体系,就可以实现对于平台等网络技术掌控群体的伦理约束,进而实现对网络空间人权“善”的价值保障。逻辑上,制度伦理主要有两种构建方式:一是强调制度的“制度中心论”,就是将伦理制度化,并以此作为解决数字社会伦理问题的途径;二是“伦理中心论”强调对制度的反思批判及伦理精神拯救,从伦理出发,通过制度的伦理建设解决数字社会的道德问题。
实践中,两种情况经常兼而有之呈现出一种交融的情况。从最近十年的发展看,形成了联合国牵头呼吁、欧盟等区域性国际组织跟进、各国政府和业界响应的局面,所有这些伦理规约方面的努力,不仅强调对数字社会算法、技术等伦理规约的必要性,也在具体的伦理责任制度方面加入了人权保护等伦理价值内容。具体来说,在联合国方面:2012年6月,联合国人权理事会通过《促进、保护和享有网络人权的决议》,并以此为基础提出了社会公众在互联网空间中所享有的权利应该如何保护。2016年第32届联合国人权理事会会议在重申了2012年第20/8号决议的基础上,进一步提出“增进和保护所有人权——公民权利、政治权利、经济、社会及文化权利,包括发展权”,明确在互联网数字空间促进和保障人权,提出人们在互联网以外现实空间所享有的权利在网络空间受到同样保护……同时对网络空间践踏和侵犯人权的行为进行谴责,呼吁国家、国际组织、民进社会、技术界、工业企业和学术界等利益攸关方,从人权角度出发,以全民接入为目标,以享有人权为核心,保护隐私等人权国际义务,解决互联网的安全关切,……弥补数字鸿沟。2017年6月联合国人权理事会第35届会议发布专员报告,“在互联网上促进、保护和享有人权:如何从人权角度出发消除性别数字鸿沟”,认为性别数字鸿沟既是侵犯人权行为的一种后果,也是侵犯人权行为的起因,说明了如何从人权角度出发消除性别数字鸿沟。2020年5月,联合国第74届会议发布秘书长报告:“数字合作路线图:执行数字合作高级别小组的建议”,除了重申人权在线上和线下同样存在,必须得到充分尊重的原则外,建议保护数字人权,包括避免技术对人权的侵犯和侵蚀、加剧歧视和不平等,指出仅2019年就发生了7000次数据泄露,暴露了150亿条记录。提出数字人权保护的范围包含数据保护、数据隐私保护和数字身份保护。
欧盟非常关注数字社会的伦理规约问题,在2011年,欧州委员会四十七个国家发布“网络治理指导原则宣言”时就表示网络治理需要遵守国际人权法,以维护基本人权;2012年公布了数字社会人工智能法律项目,2016年推出了和机器人相关的民事法律规则报告书,2018年欧盟颁布了《通用数据保护条例》(简称GDPR),2019年欧盟委员会出台了一系列关于发展人工智能伦理的新标准,该标准对研究新型人工智能应用的公司、政府部门以及社会组织提出了必须遵守法律规约和有关技术伦理规约的要求。同年的4月8日,欧盟依据“确立对以人为本AI的信任”原则,制定了《欧洲人工智能伦理准则》,该准则以人类至上价值为基石,期望通过人工智能技术可以提升人们幸福2020年11月欧盟出台了“数字治理条例建议稿、数字市场法草案和数字技术法草案”,法律设置上主要从监管者视角出发,并以保障个人基本权利为原则重点,关注数据处理的行为。该法案可以称之为西方社会在人工智能时代的人权宣言,该法案通过个人尊严保护和人类基本权利保障为原则明确约束了加盟国及相关数据跨国转移业务,并且该法案是以数据主体权利的规定作为核心,从不同法律维度进行条例设置,其具体实践可由各国及欧盟、欧洲的法院进行权衡。
网络数字技术策源地美国在网络人权伦理保护方面体现了实用主义的特点,一方面优先推动技术创新,保持技术竞争优势,另一方面平衡人权伦理保护。2016年5月,美利坚国家科学委员会宣布组建了“计算机教学与应用分理事会”,美国政府开始在人工智能的有关方面组建专业负责部门。此后,美国政府在《为人工智能的未来做好准备》报告中,提出了23条具体建议,用以规范人工智能在联邦政府事务、公共事务、监管、从业者培养以及研发等人工智能技术的应用。借以保障经济发展、国家安全和社会公平。随后美国电气电子工程师学会(IEEE)也发表了关于人工智能设计伦理标准的白皮书,提倡实现人权理念、人类与自然环境的效益最大化、减少人工智能和自律系统等带来的风险和负面影响等三条原则。此外,美国五大互联网公司 Facebook、谷歌、微软、IBM、亚马逊在报告提出后,于2016年9月就各自确定了人工智能的伙伴关系,共同合力打造了一个关于人工智能技术改进和探讨的平台。2019年,美国通过更新的《国家高新技术研发战略计划》提出利用技术研发人工智能系统,协调和管理由高新技术所产生法律、道德和社会影响。
日本在对待人工智能以及相关的权利保障方面态度审慎。在 2017 年 7 月公布的《为国际讨论而作的人工智能开发指针方案》中,日本提出了 9 项原则,即人的身体、生命、财产无损原则、程序软件透明原则、智能系统安全可靠原则、用户隐私保护原则、系统信息可相互连接原则、系统信息数据可相互使用原则、人工智能系统可被驾驭原则、尊重人格的伦理原则、利益相关者的问责原则。
我国对于数字社会人权保护的伦理规约建设越来越重视。2017年7月,国务院办公厅出台了《新一代人工智能发展规划》,明确了将在政策层面积极推进、引导新一代人工智能伦理课题研发,并强调鼓励构建人工智能伦理问题研究和人机合作的伦理基础。2019年党的十九届四中全会提出:“加强和创新社会治理,完善党委领导、政府负责、民主协商、社会协同、公众参与、法治保障、科技支撑的社会治理体系。”这表明我国开始加强对互联网数字社会高科技的技术伦理规范。2021年9月,我国新一代人工智能治理专门委员会出台了《新一代人工智能伦理学规范》,意在将伦理学融入新一代人工智能全生命周期,为参与新一代人工智能有关社会活动的自然科学人、法人和任何有关组织等提出伦理学指导。该《伦理学规范》明确提出促进人类幸福、推动社会公平正义、保护个性隐私权信息安全、实现可控可信、增强社会责任与承担、提高伦理学素质等六个基础性伦理学要求。人工智能的各类活动都应当保证隐私安全,并完全尊重个人知情、批准等权力,严格维护个人隐私和信息安全,不得侵犯个人合法数据权利,禁止以盗用、修改、泄露等方式非法获取或利用信息,也严禁侵犯个人隐私权。要确保人们具有完全自主的决策权,有权自由选择是否接收人工智能系统提出的业务、也有权随意退出与人工智能系统的通讯、随意终止与人工智能系统的工作,保证人工智能系统永远处在人们的掌控范围。从上可以看出,有关人工智能伦理问题的解决,从国际组织到各国政府,都尝试以人权规范理论为重要的价值准则建立网络技术伦理规范体系。
四、数字社会人权伦理保护的激励惩戒
“徒法不足以自行”,仅仅建立网络空间的道德伦理规约体系尚不足以使网络平台、技术掌控者转化为一种自觉的道德行为。在现实社会中,道德意愿的形成有赖于社会的道德赏罚激励,同样,在数字社会,道德规范的遵守也需要赏罚激励。人权作为一种道德伦理上的善,要使网络平台以及各种数据操控者组织化为一种遵守网络伦理规约的实际行为,需要道德激励和道德惩戒进行强化。当然,这里的伦理强制不同于司法强制,因为伦理约束体系不是以法律强制力为依托的司法强制体系。其主要通过影响人们的心理,激发人们从“善”的意愿,进而外化为道德行为。
(一)传统伦理理论道德激励的局限
从规范伦理学的角度看,首先要确定什么是善、什么是恶,什么是对错,然后在此基础上进行道德选择并解决道德伦理问题。传统伦理学对善恶、对错评判的标准可以分为道义论标准和功利主义标准两类。需要说明的是,因为翻译的用词,功利主义在汉语中带有贬义,但实际上其原意并没有贬义,功利原则又称为功效原则,是指最大多数人的最大利益,因而不少学者主张用功效主义更好,但是约定成俗仍沿用功利主义的表述。
1.道义论的道德律令
道义论可以追溯到古希腊的亚里士多德,近现代的代表是康德的理性义务论。康德指出,人一方面受自然律支配,另一方面人又是理性的,其本体意识可以是自由的、理性的,在这个意义上,人可以自己给自己立法,也就是“心中的道德律”。感性是人向恶的本质,理性是人向善的本质。道德就产生于人们感性与理性的斗争过程之中。理性思考的最高的使命就是实现“善”,用道德法则约束自身。康德指出,遵守道德律令是无条件的,不计功利得失,“只根据自己同时认为它可以成为社会普遍规律的道德原则去行事”。从这里可以看出,道义论带有一定理想色彩,对于现代社会不一定适用。比如康德伦理学认为 “绝对道德律令”是不受制约的,实际上否认了对于行为的伦理规则约束。这样做的后果就是单纯强调道德动机的“善”,忽视或者无法兼顾善良动机行为结果的“善”,这在实践中,特别在数字社会、网络空间是不完全适用的。最明显的例证就是当下的技术伦理不仅要考虑动机的“善”也要考虑行为结果的“善”,善良愿望不见得有善良结果。著名计算机网络科学家、哲学家维纳(Norbert Wiener)在《控制论》一书中就提出警告,“计算机的出现将会对人类的善恶观念构成空前的挑战。”实际上很多事例表明,技术动机的“善”,往往导致结果的“恶”。
2.功利主义的道德激励
相对于道义论,功利主义伦理观更为现实,不讳言利益、快乐、幸福,正视人欲望的正当性,主张多数人获得的利益、快乐的总和大于不利益、痛苦就是值得追求的。其判断“善”的标准就是最大多数人的最大利益。功利主义判断是否道德的标准通常依赖成本/收益分析、投入/产出比较、赞同人数的多寡比较。按照这种标准,功利主义主张通过计算判断道德上的善恶,认为凡是能够带来幸福和快乐的行为,就是“善”的行为,反之则不是。这说明功利主义伦理关注行为的结果,不太注重道德动机。此外,功利主义伦理观还指出了利益关系在伦理激励方面的作用,这与道义论的“道德律”自觉不同。在现实生活中,功利主义发现道德行为常常会带来“道德收益”,这包括声誉利益、心理满足、外界的尊重等等。如果这些道德收益高于所付出的道德成本,那么就会形成道德激励。不可否认,功利主义的道德激励观点有助于伦理规范责任的有效形成。就数字社会的人权保护而言,如果制度环境能够提供给那些网络技术掌控者、网络平台等义务主体足够的道德利益,就会形成有效激励,促使这些道德义务主体形成足够的道德意愿,进而付诸行为。比如某款APP的设计者注重个人隐私保护,并且这与同类的不注重个人隐私保护的产品竞争中获得优势,就有助于形成遵守隐私权保护伦理规则的行为习惯的形成,反之,如果因为遵守人权保护伦理规则遭受了损失,在同类产品市场竞争中处于劣势,可能就不会有义务主体遵守相应的伦理规范。
不过功利主义也有局限。在科技发达的现代社会,功利主义最大的问题是在很多复杂场合无法确定什么是最大多数人的最大幸福,就算勉强确定也有局限之嫌,这样责任伦理就应运而生了,下面将说明责任伦理学家如何克服传统伦理理论的不足,应对现代数字社会的伦理责任问题。
(二)责任伦理对数字社会人权的维护
传统伦理秩序的维护依靠的是信念体系,比如“诚实、守信、忠诚”等。在概念上没有现代社会常说的“责任”,但是进入数字网络时代后,随着科技的不断创新发展,“责任意识不得不从后台走向前台,取代既不对前提做出反思,又不考量适用范围的伦理信念。这实际上表明,在数字网络时代,人们已经扬弃了信念伦理那种只考虑“善”的动机,而不关注行为结果“善”的伦理标准了。在科技活动中需要一种责任意识意味着可以从伦理角度追究行为主体的责任了。
有研究表明,最早将“责任”引入伦理领域的是马克斯·韦伯。韦伯在一战后的1919年就提出了“责任伦理”,目的是批判一战战败后德国官僚们以“善良意志”的信念伦理为理由,逃避自身应该承担结果为“恶”的政治责任。此后,将责任伦理系统化为理论,并且为现代技术伦理提供理论依据的是伦理学大师汉斯·约纳斯(Hans Jonas)。针对现代科技行为难以全面预见未来后果的问题,约纳斯提出了 “责任的绝对命令”理论。用明确具体的责任意识去衡量科技行为。其具有广泛影响力的著作《责任原理:技术闻名时代的伦理学探索》告诫人们,“责任伦理在一个受到败坏的时代是必不可少的”。约纳斯提出的责任伦理理论的基础和首要条件是因果关系,他借用康德道德律令,同时批判了康德时代功利主义伦理的“最大化的幸福原则”极力满足一种偏好局限,提出“责任命令”,建构了一套基于行为因果关系和负反馈机制,对行为主体要求承担当下和未来责任的伦理体系。责任伦理规定行为者要控制自身的言行而不触犯责任伦理规范,需要行为者在相应程度上预见行为的结果,并对其结果负责。约纳斯的理论不仅将责任系统化引入伦理关系,甚至在某种程度上超越了法律上的权利义务关系。我们知道法律上的权利义务是基于相互性的关系,也就是一个人法律上的权利依赖于对应法律义务承担者履行义务。而约纳斯所主张的伦理责任,实际上超越了相互性,比如父母对子女抚养责任,并非期望子女在未来回报,是一种无条件的非相互性责任。约纳斯提出了四类责任,按照性质进行区分可以分为对后果负责的形式责任和与道德相联系的实质责任。同时,约纳斯依据责任主客体之间的相互性、利益与回报的相关性,又将伦理责任分为相互性责任和非相互性责任,后者典型的例子是父母和子女之间的不图回报的抚养关系。依据承担责任的方式,约纳斯将责任区分为自然责任和契约责任。自然责任依据的是行动主体内在责任的先天性条件,比如自然赋予、无法取消的血亲关系等;契约责任是根据个体在后来实际生活中的契约约定和关系条款约定确定的责任。约纳斯指出,伦理责任属于实质责任、不是相互性责任和自然责任。因此追究伦理责任就超越了法律上权利与责任的相互性,强调不仅个人,而且是行业整体需要对人类以及人类的未来承担整体性责任,因此具有超越当下持续性的特点。在一定程度上应对了现代社会风险产生的“脱域”问题,也就是行为与其结果发生具有不同的时空性。责任伦理成为当代技术伦理的主要归责基础,反映了当今科技发达情境下伦理应对复杂情况的趋势。具体到数字社会的人权保护而言,可以减弱借数字技术的逃避责任的借口。具言之,我们知道数字社会网络空间是由计算机和网络通信技术构筑的人为空间,随着计算机网络技术的发展,其复杂程度超出了一般网络使用者的理解,即便是专业技术人员也常常无法掌握复杂算法得出结果的内在逻辑,所以网络平台或者设计者很容易将责任推给数字技术,借以逃避责任。但是责任伦理在这里提供一种穿透“技术面纱”,向算法设计者或程序设计者追责的道德正当性。
当然也有学者提出,在强人工智能阶段,AI或者机器将获得拟制人格,有可能独自承担责任。并且,2022年6月一份转发英国卫报的报道称,一个名叫布莱克·莱莫因(Blake Lemoine)的谷歌工程师发现该公司一个用人工智能算法搭建的机器人聊天程序有了“自主感情”, 报道称,该工程师惊讶地发现这个人工智能程序居然开始谈论起了自己的权利以及人格,甚至害怕自己被关闭,表现出了一个在莱莫因看来犹如7、8岁儿童一般的“自主情感”,但是谷歌方面却否认该工程师的发现,称实际上那个人工智能聊天程序仍是模仿,不认为其具有“自主感情”。并且发布消息的工程师被谷歌停职。这则新闻无疑更增加了人们对于数字社会人工智能自主性问题的进一步审视,或许AI人工智能在不远的将来因拥有“自主意识”获得拟制人格,届时整个伦理标准或将改写,但就目前的情形而言,将责任归诸算法等技术还缺乏足够的基础和条件。
五、数字社会人权保障的伦理与法律互补
网络技术对于数字网络社会秩序的影响是巨大的,无论是伦理规则还是法律规定,都需要通过网络技术作为中介,这点完全不同于现实物理空间,可以直接对人或组织发号施令,这也是网络空间复杂性所在。就网络空间的人权保护而言,不是简单地诉诸伦理宣示或者法律号令就可以实现了,而是需要转为网络代码才能发挥作用。本文强调数字人权保护伦理进路其实也是基于网络空间这种技术特性,当然这不意味着可以排除法律的影响,现实的情况更可能是伦理与法律在数字人权保障方面的互相补充。
(一)内嵌于网络技术中的伦理
数字网络社会是一种完全由网络技术、计算机技术通过模拟现实空间构成的在线虚拟空间。我们通过网页看到的图像文字等其实都是浏览器对网页源代码进行解析的结果,从物理现实看,这些代码其实就是符号、字符或信号源码。源代码大多是用HTNML语言编成的纯文本文件,借此对各类
、文字、音频、视频加以描述,然后网页浏览器通过代码进行调取呈现网页内容。可以说网络空间的所有活动,都是以互联网为媒介,经由一系列代码转换实现沟通的。所以网络法专家劳伦斯·莱斯格(Laurence Lesig)代码就是网络空间的法律,它决定网络空间的自由与限制程度。
代码建立网络秩序,是互联网早期的工程师、计算机专家通过运用网络技术规则实现的,其中乔纳森·波斯特尔(Jonathan B.Postel)、瑟夫、罗伯茨、卡恩等计算机专家和网络工程师们通过不懈努力逐步建立了一套内含自治伦理的技术编码网络控制方式,形成了早期的网络空间治理模式。甚至一度排斥了法律在网络空间的作用。这其中最典型的是网络主权的倡导者约翰·巴洛发表的《网络空间独立宣言》,他以美国《独立宣言》为蓝本提出网络自治的主张,认为国家以及国家的法律在网络空间不具有合法性,因为互联网在早期的确是由一群网络工程师和计算机专家搞出来的。巴洛还依据美国宪法第一修正案,起诉推翻了当时克林顿政府批准的《体面通信法》(CDA),该法案试图阻止未成年人访问网络粗俗的色情内容。美国最高法院根据巴洛等人的起诉,最终宣布这个涉足互联网规制的法律违宪。
应当说,在互联网诞生之初到1998年乔纳森去世之前,网络工程师和计算机专家们依据道德原则和技术规则建立了有效的网络空间秩序。比如有互联网教父之称的乔纳森在1988年建立了分配IP地址的国际域名的国际非政府组织IANA(互联网数字分配机构),负责协调因特网正常运行和域名管理分配,掌握着域名系统、互联网地址资源的最高权力,拥有域名系统的最高权威。直到1998年去世为止,乔纳森依靠自己的道德影响力和技术能力长时间维持了IANA的运行,这也从一个方面说明网络空间治理中内嵌于技术中的道德伦理的影响和作用。当然,在互联网创建有影响的专家和工程师当中,也有主张接受政府法律监管的,比如同样享有互联网教父之称的先谷歌计算机专家瑟夫(Cerf)等。特别是上世纪90年代末,互联网开始大规模商用,网络域名与地址资源随即具有了巨大利益之后,国家的法律监管就在所难免了。这样就形成了现在网络空间利益相关方的政府、非政府社会组织、商业机构共同参与的治理模式,这其中,技术伦理与法律对网络空间秩序的形成几乎具有同等作用。
(二)伦理与法律的共治
网络空间早期秩序的建立主要依赖行业和个体伦理自律,但是随着网络的大规模商用,以及网络空间与现实社会高度融合,政府公权力和代表这种权力的法律介入已经不可避免。
传统社会伦理秩序的建设主要依赖个体自律,事实一再证明,这实际上是一个很难单独实现的目标。尽管前面已经介绍了非正式法律制度方面的数字社会的伦理规约,但是在现代数字社会中,由于社会分工的更加复杂、数字技术的日新月异,个体行为的影响越来越有限,仅仅依赖个人自律实现数字伦理规约显得力不从心。因此,立基于技术责任伦理的强力制度结构体系所形成的“他律“强制,就显得十分必要。就数字社会的人权保护而言,国家立法机关制定的法律、政府制定的法规等正式制度,将负反馈机制引入到伦理体系中,迫使行为主体规范自己的行为,同时也加强了行为主体的道德自律。
当下,各国在正式立法中对于在网络空间保护公民基本权利的内容日渐增多,比如2012年欧盟发布了数字社区等新一代的人工智能立法项目, 2016年,美国发布了与机器人有关的民事立法规则报告书2018年,在《计算机数据保护法》的基础上,欧盟颁布了《通用数据保护条例》,简称GDPR。这部GDPR法律被誉为“史上最严”的企业数据保护法,原文由十一章共九十九篇构成,其严苛重点主要表现在:扩大和完善了企业义务的具体内容,当中包含了数据可携带权、被遗忘权等权利等利益;其次,政府制定了最高可达二千亿欧元,或企业在上一财年的全球经营总收入百分之四,并以较高者为准的罚款内容。美国加利福尼亚州政府亦制定了《美国加利福尼亚州消费者保护法律》(CCPA),于2020年1月1日施行,它是美国加州法律所赋予的一种隐私权,是全美目前最全面也是最严格的个人隐私立法。美国加州的CCPA法案,从保护消费者的角度,对数据的商业化运用进行规范,确定了“原则上允许,有条件禁止”准则,其2017年11月原立法案是为了对个人隐私进行保护,旨在使加州的隐私法律保护体系更加完善。在之后该政法案不断获得州议会的修正并通过,最后由加州国会成员Ed Chau和该州众议员Robert Hertzberg共同通过了2018年的《加州消费者隐私权修正案》(“CCPA”),并于2020年1月1日正式开始实施。我国也在2021年11月1日施行了《个人信息保护法》,以多层次、多领域的保护模式为主。只是某些领域如电子信息保护语焉不详,以隐私权为例,主要以间接的为主且不清楚它在法律上的界定,特别是对电子隐私信息保护的要求不明。但是其积极意义已经不言而喻。
从上面这些情况可以看出:(1)全面系统的专门立法已经成为个人信息保护的立法趋势,公民个人信息享有作为权利核心,为新生技术的发展做出原则性规定,使其具有一定的预见性。(2)确认了消费者自主原则。美国的CCPA法案明确消费者具有个人信息控制权,具体包括选择加入与退出权、信息删除权等。欧盟的GDPR明确了消费者对个人信息的隐私处理权、被遗忘权以及个人信息控制权。(3)设定了企业的严格法律责任。提高惩戒代价,促使平台、技术掌控者等维护消费者的权益,迫使其加强自律,遵守道德伦理规约。(4)如果说伦理规约是自我控制,制度结构伦理就是群体自我调控。从行为的选择看,不管是制度化的伦理规则还是非制度化的伦理规约,只要该群体基于自由意志之上的责任进行选择,从伦理自律到制度强化就是一个自然而非异化的过程。
结 语
人权是数字社会最基本的问题之一,从互联网到大数据、再到人工智能,随着科技的不断发展,对人权的侵犯也愈加广泛和严峻。从积极的方面看,这种严峻挑战的背后是人们对于不确定的未来怀有不同的希冀和憧憬中产生冲突的结果。对于科技开辟的未来领域,人们可能无法避开已有的基本价值和秩序准则,重新制定一套新规,现实的情况常常是已有价值共识在新领域的延伸。面对数字社会的发展和创新,立法者要深刻理解数字技术背后的多重道德缺失与资本逐利的陷阱,把握与平衡好技术发展与人类发展的法律和伦理的天秤。建立伦理与法律二元互补的数字社会人权保障体系。
人工智能的出现,计算机网络技术的日新月异,会使得我们的法律难以及时应对所有侵犯人权的新问题,并且网络空间去中心化以及跨越国界的特点也使得本就具有被动性的法律更加不容易满足网络空间人权保护的实际需要。在这种情况下,从伦理道德角度,提出建立保障人权的科技伦理架构,通过伦理补充法律的滞后不失为一种现实的方式。同时,在未来立法程序中落实基本权利保障的理念,强化对人工智能开发行为的引导,让新型人工智能技术的发展在不违反人类伦理准则的前提下合理有序实施。伦理和法律二元互补的数字权利保障体系,经由法律本源和基础的“伦理”概念加以检验,也就给法律带来了一种无法因变动而失去逻辑自洽性的有力补充。
转自:“法学学术前沿”微信公众号
如有侵权,请联系本站删除!