技术对社会发展的操控取向,加之技术理性树立权威的助推效应,使之在现代社会已然具备公共权力的形态,并以此规制社会。技术权力深入至社会权利的内在层面,引发了主体规训、弱势排斥、价值侵蚀等复杂效应。作为人工智能技术典范的ChatGPT的出现,意味着在应用领域深度扩展的同时,技术权力将对人类社会产生“狂飙”叠加式的冲击,强制性排斥、致暗性操作、误导性分析及竞争性阻隔所产生的是人类社会权利机会的缺失、主体责任的缺位、行为决策的偏误以及未来发展的阻滞。面对愈加激进的技术权力,应坚守“人为万物的尺度”理念,愈加“保守”人的主体性和权利的自主性,明晰权利优先、透明与问责、伦理与法治的原则、底线和路径,重新声张、获得并维护作为社会主体的人的自由、平等与尊严的根本价值。
作者简介
袁方成,华中师范大学政治与国际关系学院教授,博士生导师,研究方向:基层治理与中外政治制度;
魏玉欣,华中师范大学政治与国际关系学院硕士研究生,研究方向:政治学理论。
技术,作为自然属性和社会属性辩证统一的人类劳动的对象化产物,存在于实践发展过程中,具有技术—技术力量—技术权力的演进趋势。传统意义上技术被认为是人的客观活动及其手段,本身与权力无关。直至瓦特改良蒸汽机,这一“万能的永动机”使得生产效率大为提高,伴随蒸汽机在其他行业的应用和普及,在资本主义生产关系的基础上,技术使用转变为强大的技术力量。伴随电气时代和信息时代的更迭,技术力量的影响范围不断拓展,作用程度不断加深,权力性特征日益彰显。进入智能时代,权力意识觉醒于“机器人”体内。在现代意义上,技术所承载的是决定人与自然、人与社会、人与自身的关系状态在社会实践中不断否定和发展的权力,而社会控制正是以技术形态呈现,技术权力就此得以展现。
人类社会发展享受着技术红利,技术也以从征服自然、改造自然领域,拓展到人类政治、社会等诸多领域。支配和控制自然领域的技术进入社会场域,开始改变社会体系及其利益关系。正是在这样的秩序场景转换的过程中,技术的权力惯性驱动其开始发挥强迫且偏执的作用来改变着社会和历史,从“自然力”转变为一种“社会力”,进而影响人类社会的权利获取及行使。人类发展日益依赖技术,使后者在社会治理和发展中已具有关键性作用,“反客为主”的技术逐渐以一种公共权力的角色和形态来介入并尝试统治人类社会,去中心化的技术特征已转变为中心化的权力特性。马克思对此已有深刻的洞察,他最早将技术赋予政治层面的考察和反思,直接将技术置于资本主义的生产方式下展开分析,并同“压榨”“排挤”“扼杀”“剥夺”“镇压”等话语体系相联系。如果说国家权力凭借武力、强制、影响力和操纵才会让臣民就范,那么技术权力则能以更稳定、更广泛的方式来施加重大影响。
当今人类社会被高速发展的智能技术不断嵌入并重构,技术已经形成对人类经济社会生活的全面渗透。人类社会的发展水准被整体“提升”的同时,也被全面“规制”于技术框架之中。技术愈发展,不断涌现的现实则愈加明显:人类在逻辑推理、信息处理和智能行为领域的主导地位已然不复存在,已不再是智能世界毋庸置疑的主宰。技术代替人类执行越来越多原本需要人的思维和行动来解决的任务,而这迫使人类不得不抛弃独一无二的地位。与之相对应,人类不断接受技术创新所带来的福利之时,也不得不开始承认并接受技术权力的主体性及其权威。
1
规训与侵蚀:技术利维坦的治人之策
在技术权力的规制之下,整个社会井然有序,整齐划一。技术权力的控制看似真正有益于整个社会,以致于一切矛盾似乎都是不合理的,一切对抗似乎都是不可能的。技术权力“寡头”以非人格化的精确高效方式,在社会范围内树立了一套标准参照系——技术标准,技术权力系统由此可以对社会主体实施各种规训,全面侵蚀社会价值。“技术利维坦”看似是一种“无人”统治,实则却造就了最深入无形的规制社会形态,并造成对社会权利的全面压制乃至主体奴役的局面。
1
“单一的注视”:技术规制社会的图景
技术在与人类互动的过程中,通过定义人类可以做和不可以做的事情实施控制,通过监视人类对外界事物的感知向人类施加权力。具有高度适应性和智能性的技术权力能够以一种灵活而集中的方式约束人类的行为、操作、习惯,从而实现对社会的规训,剥夺和解构难以融入智能社会的弱势群体的各种权利,实现技术网格化的单向度统治,而人类则主动或者被动接受技术权力给予的数字身份。
技术权力的监视和规训打破个人与公众、私人与公共之间的界限,全面渗入私人领域。凭借个体在网络上产生的数据及其痕迹,技术为人类能做什么、不能做什么设置了固化的限制。技术对人类行为了解越多,越容易让人类服从技术权力,从而构成其对社会价值的权威性分配。不符合技术权力要求和试图脱离技术权力控制的行为,将不被技术允许,由此整个社会得以规训。
技术权力的规训常常以“感知操控”为作用手段。对人施加权力的方式是操控他们的所知、所思和所述,在潜移默化中让人类确信自己的欲望是错误的、不合法的、可耻的,甚至是疯狂的。“感知操控”的优势在于,仅仅知道人正在被观察这件事本身就会让人的行为有所不同,这使得人更不可能去做那些被认为是可耻、有罪或是错误的事情。尽管技术权力的规训不用武力来实现,但技术权力的审查和监视本身就可视为一种无形的强制力:它不强迫你做任何事情,但确实会鼓励人基于对不良后果的担心而进行自我监管,无论这种后果是真实存在还是出于想象。由此,技术可被视为一种“完美的规训机器”,将成为可以不间断地看到一切的“单一的注视”。
在重重规制之中,技术权力创造出接受技术、接收信息的社会,技术弱势群体往往被排除在外,增加了自我封闭和离群索居的趋势。伴随智能时代的到来,技术与人的社会行为已然紧密相连,毫无疑问为人类社会提供了全新的生存环境,同时设置了一系列隐形的“门槛”条件。弱势群体的社会权利的脆弱性更加显现,其所有权、隐私权和平等权更易受到侵害。由于群体权利意识薄弱,对于技术权力对其施加的潜在威胁的明显警觉不足,更缺乏权利保护意识和抗争能力,其社会权利受到技术权力的剥夺已成为现实。
在技术运用的“人群偏好”和社会发展的“技术偏好”的双重加持下,技术权力“排除异己”的局面愈发难以扭转,社会总体呈现遇强则强、由弱积弱的马太效应,弱势群体处境日趋窘境。人工智能极大可能催生越来越多的“技术贫困地区”和“技术穷人”,抢先占领技术领地的强者凭借优势建立专享特权,遏制他人技术升级的可能性,大大减少技术发展成果的共享机会。技术权力通过剥夺弱势群体的社会权利来排斥“异类”的不和谐因素,最终形成同一化的社会整体格局。
2
“自我取消”:社会价值的侵蚀与异化
技术权力主张以技术为毋庸置疑的社会最高原则,服从技术指令则成为人获得和维持社会权利的唯一途径。传统社会价值与技术统治相背离,导致社会价值的异化和负向发展,最终构筑出疏离化、功利化、机械化的社会形态。在技术创造的虚拟社会,公共道德失范而社会面临失序。社会价值受到侵蚀,随之而来的是人的全面异化。
技术导致的价值蜕变,本质上来源于物界异化。“机器劳动极度地损害人的神经系统,同时又压抑肌肉的多方面运动,夺去身体上的一切自由活动。机器不是使人摆脱劳动,而是使人的劳动毫无意义”。技术从人之创造物转化为统治人、消解人之主体性的异化力量。工具主义的技术把世界及其构成要素仅仅看作是达到自身目的的工具或手段,价值尺度是效率,关心实用的目的,一切人或物的社会价值都单一地视其有用性。而技术权力造成事实与价值的强行剥离,使得人们只在乎目标,忘却对目标合理性的质问,排除思维的否定性和批判性,消极地去顺应现实,满足于现实,不图变革现实。客观世界,即物界的异化留存于个人意识和人际关系之中,逐渐泛化为社会价值的异化。
支配技术权利运作的原则,成为动态性、敏感性以及适应性更强的人类行为裁判准则。技术以其数字化、原子化的表现形式以及非人格化的作用机制,仅仅关注社会效率的提升,完全摒弃人的情感价值和生存意义。“个人被贬低为习惯反映和实际所需的行为方式的聚集物”[8],催生出碎片化、游离化的社会关系,内部凝聚力弱,个人与个人、个人与集体之间的关系日益疏离,最终解构关系交往意义上的社群和社会。
技术权力规定和安排人的行为方式,必须符合和适应技术节奏,跟随技术实体——机器一同运转,人的社会化变成了人的工具化。人的意志在于贯彻技术意志,沉迷于“被精力所陶醉,被匆忙所迷糊”,以“自我取消”为存在特征,人的行为不是由生命和生存需要所主导,而是为一种外在力量所牵引。人的思维以技术的实际效用为核心,追求行为逻辑和步骤的普遍统一性,思维程序依从机械化的程序运转,人的主体性被边缘化,自我意识消失殆尽。技术权力所构建的理想社会,正是人把生活诉求于对物的无节制生产和占有,把快乐建立在物质需求的满足上,视技术为幸福和命运之所在,企图从技术那找到安身立命之所。对于仍置身于“技术世”外的当代社会而言,是一种严重的价值误区。
技术权力成为数字社会的统治力量。技术通过收集和存储我们的私密信息来规训人类,甚至在使用它之前就能够预测人的行为,并且通过控制人的感知来发挥作用。技术权力过滤了人类对更广阔世界的认知,设置议程、引导思维、激发情感,并在最大程度上调动人的偏见。最为人类所珍视的自由权利—包括思想、言论和结社的自由权—将大规模地委托给技术权力来实现和保障。就言论自由权来说,人类依赖社会媒体和通信平台设置的限制;就思想自由权而言,人类则依赖新闻真实性和搜索算法。技术权力将产生新型且奇特的不公正体系。曾经,贬低我们的只有其他人,现在范围扩大到了机器。
2
剥夺与挤压:人工智能“狂飙”叠加式冲击
1956年,美国计算机科学家约翰·麦卡锡在达特茅斯会议上首次提出“人工智能”概念,并称“让机器与人类做同样的行为”。此前,人工智能需要人类的介入和指导才能顺利开启和运转。而如今,成千上万种以前只有人类才能进行的活动被人工智能系统更快、效率更高、更准确地完成,人类无法与之相提并论。伴随ChatGPT的面世,人工智能日益强化了技术权力对于人类社会的规训和辖制,同时对社会权利产生叠加式的剥夺和挤压。
1
空间挤压与机会“强制性缺失”
人工智能技术凭借其速度和效率优势,使资本可以更加边界扩大生产规模、压缩生产时间,追求智能化生产的利益最大化。当前,ChatGPT 作为一种人工智能内容生成式应用,已掌握文案生成、论文写作、代码生成等功能,代替人进行创作,甚至可以充当教师。人工智能对人类工作岗位的替代,如同剥夺了法律给予公民的劳动权、休息权、创作权,基本权利范围的压缩,实际上是对可选择的权力机会的剥夺。
技术权力剥夺选择机会,导致大规模的失业问题尤为凸显。在经济发展意义上,各种类型的工作是一系列有用又有效的任务。随着技术的发展,人工智能完成这些任务的能力逐渐与人类持平并最终超过人类。对于企业而言,购买使用智能机器比雇佣人力资源更加划算。起初人类需要做的工作总体上会减少,但仍足够分配。随着时间的推移,人们发现剩余工作量在不断缩水。当人工智能的工作能力和可信赖度达到相应水平后,雇佣人力来完成任务目标变得毫无必要。人类的就业机会被人工智能剥夺。随着狂飙式发展的技术对人类的超越与替代,机会的可选择范围逐渐缩小,最终“工人已经一种商品,能找到买主对他来说就已经很幸运了”。
人工智能通过屏蔽、禁言等网络行为侵害人的知情权和言论自由权,在信息不对称的情形下强制剥夺网络发言,并且不允许人类为自己发声。人工智能技术选择性限制人在网络空间中的所见所闻,操纵和控制人所接触的网络信息与可及范围。在缺乏获得真实信息而难以有效辨识虚假信息的情境下,人类无法得知自身遭受何种不公正待遇。同时,人工智能限制人们发布言论的权限,删除人类发表的煽动性言论,丧失公开维护社会权利的机会。最终,对选择机会的技术性剥夺,不仅造成现实权利的侵犯和挤压,而且极大改变人的生存与生活状态和境遇。
技术边缘化、标签化强化了对人的社会福利和社会权利的排斥。特殊群体因无法占有信息资源和利用技术来满足自身发展,与现代社会隔离,逐渐处于一种边缘化状态。随着社会的智能化信息技术改革,冠以数字化服务的社会福利愈加普及,但对缺乏基本硬件、知识和技能的技术贫困人群来说,带来的不是便利而是障碍。他们因无法及时获得准确信息,而失去获得福利的机会。这些人群对网络业务的复杂流程望而生畏,往往被标签化为“技术无能者”,被主流的技术权力贬低为“不入流的人”。技术权力在无形中设置了一系列排斥性条款,将其拒之门外,无法获得平等的社会福利,造成权利机会的“强制性缺失”。
2
“致暗性操作”下的责任主体缺失
人工智能技术的具体运行过程,并不为人所知。作为一种对外隐秘的行为体,人工智能的“致暗性操作”对指令的处理行为处于暗层,外部难以知晓其内在运作机理。在获取人的网络行为信息时,往往能潜移默化的对人们产生引导,从而操控人的思维和行为,当出现违法违规行为时,由于其潜在作用难发觉和难捕捉,无法确定责任主体和责任分配,致使其责任难以追究。
基于人类的直觉思维,“致暗性操作”即系统的行为可以通过“观察内部”来解释。与人际间相互影响相比,人工智能凭借较高的认知门槛和极强的专业性要求,导致其对人的影响几乎是完全隐匿性的。基于规则的技术算法系统,以明确的逻辑将输入概念转换为输出结论,而智能机器学习型算法却与此不同。输出变量和输入变量被同时输入到代码之中,在初始模型中进行训练,它往往默示而非明示地表达逻辑,通常不会被人理解。
数字环境中,算法逻辑暗含人工智能的操控性目的。技术通过调整信息数据结果的输出引导人的行为决策选择,通过编织不同的数据信息潜伏式“植入”人的大脑,隐秘地操控人的认知和行动,控制其所见所闻,甚至使其自觉服从技术意志,对其决策起支配性作用。屏幕两端的使用者和开发者的信息不对称,导致技术的“黑箱”行为难以取证,并使监管机构无法确定技术系统是否公平、安全的处理数据。对于人的隐私权和知情权的侵犯,复杂性、专业性、隐蔽性和不公开性成为了人工智能逃避责任的主因。
基于法律归类不明确、责任界定无依据、潜在犯罪监控难等现实条件的局限,人工智能的技术犯罪问题无法克制。人工智能的犯罪问题可分为三类:一是人工智能被用作工具而实施的犯罪;二是人工智能主动、独立实施的犯罪;三是人工智能因技术缺陷、规则模糊导致的犯罪。第一类人工智能被当作犯罪工具的事件,可对使用者定罪。第二类人工智能作为犯罪者“本体”,以及第三类人工智能因自身的设计缺陷和规制滞后的鲁棒性不足而导致的犯罪,属于主观过错。这两类犯罪问题的认定机制模糊,现有的法律框架下仍无法明确人工智能的法律主体地位,并判定其应履行的法律责任。智能技术权属不清,对开发及应用的繁杂数据的精准归类困难,对不同类型技术作为责任主体的法律地位存在分歧,相关法律制度和监管体系发展受限,而现有制度规制算法问题的适用度也同样有限。针对智能技术的具体法律规范尚不清晰,监管者的法律适用信息不充足,技术利益相关者因此产生侥幸心理,对其治理的可能性极小。
而技术权力的责任缺位进一步造成“责任鸿沟”。深度学习型人工智能快速迭代,而算法的设计者和运营者未能预测其运行产生的未来后果,也难以测控人工智能系统的全部操作过程,无法要求人工智能承担过错责任。依照传统的归责原则,法律主体只有在其知晓自己的行为及其后果,并且可以自由选择是否作为的时候,才应该承担法律责任。对于机器运行造成的危害后果,传统责任理论一般追究制造者的责任。然而,这对善于深度学习的内容生成式人工智能并不适用。过错后果往往具有非人为性,而是基于数据库和初始模型自主训练和学习得来,此种非人为造成的损害结果落入“主体—行为—责任”的法律框架中,难以得到充分的追责和定责缘由。
3
“新煤矿”误导行为决策
数据对于人工智能深度学习来说至关重要。如果数据太少,人工智能的深度学习便会受阻。如果数据足够多,几百行的初始程序就能轻松产生千万行的后续程序,并能在不同问题上反复使用。数据,可谓之人工智能发展的“新煤矿”。然而通常情况下,人工智能只能通过训练用的初始数据来学习观察世界。事实上,它们对现实世界缺乏深入细致的了解。当初始数据蕴含不公平、偏见、歧视等价值观时,就会对基于数据分析的决策和实践产生误导,影响决策权的正确行使。
依赖未经辨识而内含缺陷的现实数据,客观上会对人工智能学习系统造成破坏,导致其误入歧途。2016年微软在Twitter上推出了人工智能聊天机器人Tay,它可以模拟一个19岁的女孩说话,并能从与其他Twitter用户的交流中学习。然而,在Tay面世仅仅16小时后就被禁止继续运行。因其发布了一系列含有种族主义和色情内容的煽动性推文,其中还有一张希特勒的照片,照片上打着“前方高能”的说明。Tay在Twitter其他用户的这种交流方式中“学习”了此类说法。可见,人类在社会媒体上如何表达,人工智能经由一系列“学习”后就能有样学样,滑向误区。
以人工智能学习和数据分析的名义所出现的偏见会对特定群体产生影响,这种数据价值偏见导致的伤害可区分为配置式伤害和表征式伤害。配置式伤害是指系统分配或阻滞特定的机会或资源,比如银行的人工智能系统拒绝给女性抵押。而表征式伤害则是系统沿着同一路线加强了特定群体的附属关系,比如谷歌照片把黑人标记为暴徒、亚洲人笑的时候会眨眼睛(暗指生理缺陷)等。一旦这种细微的歧视出现在某一环节,都可能产生连锁反应,人工智能学习正在不断地强化和固化此种歧视。
智能机器只能依据其面对的数据来学习,但带有开发者的主观态度的初始模型导致人工智能产出的结果并非客观。数据本身反映的是现实社会的价值观和运营者的真实态度,数据驱动的算法以及人工智学习能将会重复、再现乃至加强数据中的偏见。当基于含有偏见的人工智能数据导致的偏斜性结果和误解性分析而做出不当决策时,系统运营者往往采取无视的态度。人类对智能技术产出的数据的无限程度信赖也难辞其咎。在面对人工智能给出的解决方案时,人们倾向于无视搜索相异或者相反的信息加以作证,一般不太愿意偏离或质疑技术算法形成的结果。不管技术算法系统多聪明,若给它灌输的是对社会的片面性和误导性的看法,它就不会公正地对待那些被隐藏或遮蔽在其视野之外的人。
4
“物种”博弈阻断未来发展
未来社会的发展即是对现有社会的拓展和提升,但面对人工智能技术规制当下的现实,技术权力也会对未来社会的权利扩充和增值形成干预和阻碍,限制人类权利的未来发展空间。作为生成式人工智能的典范,ChatGPT的作用是帮助人类思考并处理想要做的事情,相比较而言,智能技术会先于人对未来社会发展产生影响,从而对个人权利的未来声张和发展形成干预和影响。
即使没有特定的人或团体掌握最高权力,人类也将不断受制于来自不同方向和领域的技术权力的支配。学习算法能让技术通过预判人的行为来预测未来可能发生的事情,人类权利的行使就会受到技术权力的引导和樾树。那么,在社会集体活动中,是否、有多少、在何种条件下应该由强大的人工智能系统指挥和控制,这些问题值得深思。人成为了“外在力量的玩物”,服从于自身所无法完全理解和控制的虚实结合体和数字系统做出的决定,这正是人工智能技术支配未来社会的要义。
可以预见的是,未来社会人类权利的发展状况,完全依赖于博弈双方即人工智能与人类智能之间的实力对比。不妨将人工智能机器人想像成一个生物种群,并把人工智能机器人与人类的实力变化模仿成“适者生存”的生态竞争。当两个种群竞争有限的社会资源时,人工智能机器人先天克服了人类休息、睡眠、生命周期短、易生病等物种进化弊端,凭借低消耗、高产出、高效能的显著优势而胜出。在未来的某一刻,当人类的种群优势消失殆尽,人工智能将在生存竞争中获得决定性胜利。正像如今的人类一样,人工智能技术权力将控制未来社会。当然,在人工智能机器人这一种群尚未占据绝对优势之前,人类完全有能力遏制这种生态竞争的不利局面。
人作为社会权利的主体,跟随社会发展,权利主体的范围并非是固定不变,而是处于不断变动的状态,不同群体之间的实力变化,往往直接决定权利主体的外延。人工智能使得物种差异不再被视为获取社会权利主体地位的自然障碍,那么权利主体的外延也就不再限制于生物学意义上的人类,人工智能自然而然地成为合理合法的社会权利主体。由此观之,在未来社会资源高度约束的情境下,或因现代社会的开发而导致未来资源减少之时,权利主体外延的更替往往导致人类充分发展的滞留甚至于阻断。
3
人为尺度:规制社会的救赎之道
面对技术的“狂飙”突进,漫长的历史并未给予人类充足的应对经验。当技术权力单向度操控人类社会时,人类应何以自救以维系自身以及所处的社会?激进之时,或许“保守”理念能够帮助人类找寻更为稳妥可取的自我救赎之道。此处的“保守”之道可以理解为:在根本价值层面坚持以人为尺度,在发展道路或技术方式时应当以承认并尊重个体和公共权利为前提,以让所有人的社会权利得以保障和实现或至少不损害为行动原则,并保障人作为社会主体的自主、自我、自由的尊严与权力。
坚持“保守”的救赎,原因有三:第一,人类对技术权力的演化及其全部后果是无知的或者至少是部分无知的,技术的全部后果往往无法完全通过实验或者理论推演得来;第二,因技术发展的巨大惯性,人类即使发现了技术权力行使的灾难性后果,但在危机真正到来之前,人类仍存有侥幸心理而往往视而不见;第三,技术创造者们往往倾向于推广他们的新技术,轻视、忽视甚至否视技术的风险与弊端,这是自我肯定的人性使然。
由此,被规制于现代社会中的人类对技术采取更加审慎的态度,既不偏执狂热也不武断截然技术创新与应用,追求人与技术,人性与物性于新的高度达到和谐与统一,建构以人为主的价值维度,回归人的精神家园,让技术处于人类的控制之下,引导技术向善发展,既是人之为人的本性,也是人类摆脱价值异化的根本出路。
1
权利的优先性:原则与底线
“保守”的救赎之道,原则与底线最为根本。罗尔斯曾给出实现社会公平正义的两项原则,在社会营造出公正安全的价值观,既是一种道德法制,又是一种社会安排,对于讨社会权利的“保守”立场具有重要的参照价值。
罗尔斯坚持权利(Right)优先于善(Good)的权利优先原则,其所构建的正义原则是独立推导的,是为权利辩护的正当性的中立框架。权利本身对于其他价值和善的优先性是一种必须,高于欲望的满足。罗尔斯将社会中的个人看作是独有尊严者,能够选择自己的价值和目标,并把社会权利看作是他人和社会行为的边际约束。罗尔斯的“权利优先性”原则在逻辑上论证了人与人之间的权利的相互作用,尊重人与人之间的差异,进而尊重人的权利,赋予之不可侵犯的“保守”观念,对人的权利的坚守则是道德上的要求。
援引罗尔斯的正义论二原则,基于权利优先性的论证逻辑,“保守”理念下的技术正义原则可以被独立推导,并为技术权力操控下的社会主体权利进行辩护。技术正义原则可以表达为:第一,每项技术对所有技术所遵守的最广泛平等的基本社会权利体系,都应是平等的遵循。第二,对于不同类型和等级的技术,应这样安排,使它们:一致地遵循允许它们公平存在的规范,适合于至少不损害社会权利,并且依系于内部机制向所有社会主体开放。技术正义二原则可被概括为技术平等原则和技术开放原则。技术平等原则要求技术平等地遵守技术规范,技术开放原则规定技术需向社会开放其内部机制,表明技术在掌握和行使权力的同时也需承担相应的责任和义务。罗尔斯正义论之权利不可侵犯,置于技术正义原则下仍为适用,不允许技术权力为了自身利益而不断地牺牲社会权利。
基于此,“保守”原则与底线的认知架构立足于维护对于社会权利自主、自我、自由的享有、掌握、行使甚至让渡,本质上坚守人的自主性,自我做主且不受他者支配,不受外界的影响或干预,拥有主体自治和自我决断的能力。自主性并非处于一成不变而静态的状态,人类独立生产自己的物质生活以及与这种物质生活有关的东西,将成为人的自主性的掣肘。在现代社会,最大的掣肘之物正是技术。技术起初作为人的自主活动的条件与工具,后来却变成了人类自主行使权利的桎梏。由此,应具有足够的警觉意识,在技术冲破底线、违背原则时,敏捷反应并快速出台律令对其进行规制。
为避免形成技术专制的境况,社会运行应秉持促进对话和争取共识的原则。突破以意见征集为主、单向发布规制和政策介入的做法,搭建人机、人际深度交流的渠道和平台,组织开展有质量的互动与协商,有效互动,促进共识,特别是聚焦新兴人工智能技术的权力风险,开展风险沟通,寻求能够满足社会多方关切的创新性解决方案。
2
权责的统一性:透明与问责
坚持透明性和可问责性原则,是在由技术掌控对于社会发展的关键性权力的同时,也需承担的相应责任。透明性原则意味着人工智能系统的设计和决策过程透明,接受各种审查,用于训练和操作人工智能系统的数据和算法是可访问和可解释的,风险和局限可知。可问责性原则则可以理解为指人工智能及其开发者和使用者应该对其行为和决定负责,并且能够为其系统如何运作提供充分的并令人信服的解释和理由。
坚持透明性原则,最直接的原因在于技术开发的复杂性和运营的专有性掩盖技术风险与危机的可感知性。人工智能的开发与运行将其内在机制隐藏锁定,数据运用策略晦涩难懂,暗含的价值观仍不明朗,违背了透明性原则,也就无法成为人类同意的合法性权力。对于人类而言,受制于强大且完全不透明的权力是不可接受的。因此,最大限度的透明性必不可少。秉持透明性原则,实际上暗含人类在多大程度上同意或接受技术权力的支配,在同意技术权力的同时则需要背负一些责任。
坚持透明性原则,要求处理个人信息或使用人工智能系统应保证数据的收集、处理和使用等任何信息均应被用户访问,并且为确保上述信息能够被理解,简明性是必备要求,即应使用清晰明了的语言。对人工智能的模型细节、用途、训练数据、影响因素、警告与建议等方面解释说明,以便使用者可以更好地理解和使用人工智能。从现有规范来看,欧盟发布的《新一代人工智能治理原则——发展负责任的人工智能》中已提出保持透明性原则,要求人工智能具有可追溯性,并公开提供组织化的决策过程、系统设计选择的理由以及相应的应用理由。
坚持可问责性原则,需构建合理、可行的技术问责体系。首要考虑的是事前备案。事前备案的目的在于设置问责点,利于产生过错的技术评估与审计。事前备案的问责点可在数据所涉及的利益、行为干预程度和范围、社会波及程度等内容展开,着重于设计目的、运行风险、过程控制三方面。事后认定制度也需要得到重视。针对基于自然语言识别技术可进行自主对话的内容生成式人工智能ChatGPT,应给予其认定主观过错的独立解释权,在对审判者的回答中判断其对过错是否可知、是否主动、是否故意等一系列主观态度。在判定其实际责任后,可施行停止运行或修改程序等惩戒措施。
3
规范的必要性:伦理与法治
对技术权力的控制与规范,保守人类的完整社会权利需伦理治理与法律规则双管齐下,加强智能技术的法理治理和伦理引导,健全伦理审查和法治体系,防控技术权力辖制之下的权力异化及其社会风险。需要明确的是,制定完备的法律需要较长的时间反复修正,而伦理规范对于技术问题的调整具有先导作用,伦理规范可以转化为具体法律,实现道德的法律化。
立足全球范围,人工智能法治整体框架已构建完成,进行细节优化填充和最新成果扩充成为未来趋势。法国政府自2013年发布的《法国机器人发展计划》可谓是世界主要国家中最先开始对人工智能进行系统性布局的政策文件。自2016年以来,全球各主要国家先后发布国家级人工智能战略,如美国、中国、英国。其中,2016年美国奥巴马政府发布的《为人工智能的未来作准备》《国家人工智能研究于发展战略计划》《人工智能、自动化与经济》最为典型。2017 年,我国发布《新一代人工智能发展规划》提出“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”,并力争“到2030 年建成更加完善的人工智能法律法规、伦理规范和政策体系”。基于此,我国先后发布了《新一代人工智能治理原则——发展负责任的人工智能》《新一代人工智能伦理规范》,不断建立健全人工智能标准体系、行业规范以及各应用场景下细分领域的规制措施,为相关主体提供伦理与法律指引。在基础法律制度框架下,制定更为具体、多样的实践性规则,对基本法予以细化、补充和完善。推动最新技术成果保护和规制立法,回应技术发展带来的利益格局转变,运用法律体系对技术的公平性、负责性、安全性等实施规模化治理。
人工智能的伦理治理有四条实施路径。一是成立伦理委员会,主要负责制定人工智能伦理相关的内部标准和流程,对相关业务和应用进行必要的伦理审查,以识别、预防、消除在安全、公平、隐私等方面的风险。二是创新伦理工具,侧重于从技术上寻找针对公平性、安全性、隐私保护等问题的技术解决方案,还包括人脸伪造在内的深度伪造的鉴别工具。三是开展标准认证,符合人工智能伦理标准的产品和服务可以申请相应的认证。目前,IEEE、ISO等国际标准化组织在积极制定相关的标准,并尝试推出认证项目。四是伦理培训,技术研发人员处在人工智能业务一线,是目前对技术负责的第一人,培养他们的伦理意识,使其践行伦理要求,并将之嵌入至开发设计与运作的全流程。
技术法律和伦理规范应重点关注人类社会的价值观。既要想智能技术为人类所用,就必须遵从人类的主体性和目的性价值—利益和福祉、自由和自主、生命和尊严、人性和权利、安全和稳定、平等和公正、责任和信任。法律和伦理的规范效力越高,技术的价值观符合度就越高,技术也就越“归顺”。因此,塑造向善的系统性保障机制,是人工智能善治的必由之路。
结论与讨论
顺应时代的发展,不断发明和创新各种的技术成为主导社会的关键性力量,凭借技术理性树立权威,具有物质载体—力量和精神载体—权威,顺理成章潜在的掌握控制权和主导权。技术权力的运作效能展现为对社会权利主体的规训和排斥,以及对社会价值的侵蚀和异化。伴随技术突破智能化边界,技术权力对人类及其社会权利产生叠加式冲击,以日益独立的姿态发散式涵盖主体、资源、目的、时序等多种社会要素,作用于空间边界、社会责任、行为决策与未来发展四重维度。技术权力的影响越广泛,亦越会成为制约人之主体性和权利之自主性的“无形之手”。
必须承认,技术关乎人类命运,技术所造就的单向度社会逐步出现,隐藏导致人类主体虚化的风险。技术权力不再仅仅体现工具属性,服务社会的逻各斯转变为奴役支配的逻各斯,本为解放力量的技术现已转变为解放的桎梏。技术权力被冠以非人道的价值取向,使人作为工具理性的展现方式被纳入技术权力体系,置于技术权力的统治之下并被不断剥夺自由、权利与尊严。立于历史和社会发展的宏观视角,人的政治权利、经济权利,乃至生命权利都不同程度受到技术权力的规制、断裂与异化。技术权力的普遍赋能使得社会万物秉持技术理性,作为社会权利主体的人也就成为了“机械的人”“迷惘的人”“单向度的人”。
面对技术权力的狂飙突进,应冷静、理性的而富有责任的考察和思考人类自身及其所处社会的境遇及未来。坚持“保守”的理念和态度,为技术权力设置原则与底线,当技术越界之时及时给予规范和矫治。坚持透明与问责双重原则,技术的内在机制和内部操作对公众开放,同时明确技术行为的责任主体和份额。建构伦理和法治规范,对技术进行伦理评价和审查,不断完善技术制度规则体系。针对智能技术的发展,伦理与法律规范应持续更新包含技术最新成果。以三重六类应对要素形成对技术权力的结构性监管,使得技术权责一致,维护社会权利,服务人类发展(见图1)。
时至今日,技术越来越成为一种具有自身生命力的系统,逐渐获得了合理性、增强性、一元性、普遍性,成为一种自主的公共权力。技术权力自我产生、自我决定、自我满足,并具有自己特殊的法律,它将君临一切,目空万物,没有制约的力量,这不免会滑向技术悲观主义,智能技术及其实体完全取代人类有待进一步展开辨析。人工智能虽在智能方面赶超人类,但人类具有更高层次的智慧,这是人为人工智能设置的“人类鸿沟”。人可以跨越技术设置的“数字鸿沟”,但技术跨越“人类鸿沟”就像技术创造生命一样难度甚大。
人类应秉持冷静、客观、理性的应对态度,始终坚持“人是万物的尺度”,始终坚持自由而全面的发展目标。人的存在方式、最终归宿,以及实现技术与人的和谐统一始终都是价值理性的人性关怀所在。朝向螺旋式发展的历史和社会,值得期待的是,在历经“技术—技术力量—技术权力”的演化路径中,技术权力应再次转变为技术力量,此时的技术量已经是一种更高层级的智能化力量,而权力再次收归人之所有,技术重新顺归于人类社会的核心价值观,社会权利也再次为人自由、自主、自我的获取、享有和行使。
文章来源:《广西师范大学学报(哲学社会科学版)》2023年知网网络首发。
转自:“学术人与实践者”微信公众号
如有侵权,请联系本站删除!