来源:
《中国社会科学文摘》2023年第5期P97—P98
作者单位:
武汉大学马克思主义学院,摘自《中南大学学报》2022年6期,罗浩摘
人工智能时代的到来促使国家治理产生深刻的算法依赖。由于算法可能出现偏见以及“算法黑箱”现象的存在,因此深刻依赖于算法的国家治理也可能面临一些难题。识别并有效应对算法依赖的衍生难题,是人工智能时代国家治理需要直面的重要理论与现实问题。
鉴于算法本身的技术特性以及国家治理的广泛关联性影响,人工智能时代的国家治理需要特别警惕算法依赖可能引发的衍生治理难题。
“隐蔽的不公平”:人工智能时代国家治理的公平难题
在人工智能时代,“万物皆数”且“万物互联”,许多社会公共问题在生成与爆发之前或多或少会释放出一些“数字信息”,采集与初步分析这些信息的任务主要由相关算法来完成。在此过程中,算法扮演着某种类似于“守门人”的角色,算法通过筛选与过滤决定了何种社会公共问题以及谁的利益诉求可以进入国家的视野或吸引国家更多的注意力。与此同时,算法还可以通过辅助决策或直接决策决定各种社会公共问题以及利益诉求会得到怎样的处理。然而,算法偏见的存在可能使国家治理的公平性难以得到保证。
一方面,作为算法基础的数据难以保证无偏见。由于算法需要数据喂养才能发挥作用,无数据支撑的算法就是“无根之木、无源之水”,因此国家治理算法依赖的背后其实是数据依赖。
另一方面,算法设计过程存在人为操控的空间。在人工智能时代,虽然算法操控着众多事务的运行,但是当算法操控其他事务的时候,其自身也存在被操控的可能,毕竟“算法决策总是需要用到一些目标变量或指标,或者对分析对象进行某种分类”。
更为关键的问题是,算法的隐蔽性和复杂性使得潜藏在其中的偏见很难被发现。有人举了一个非常生动的例子,“如果你是一个穷人,以前买过的东西都是相应品类中单价最低的,那么,在系统画像里一个名为‘价格敏感程度’的维度中,你的分数就会非常高。于是乎,当你搜索一个关键词后,从前到后翻十页,你看到的都是为囊中羞涩的人量身定做的便宜货。如果说LV的店门上挂一个横幅,说‘穷人与狗不得入内’,那肯定会被砸了——这是非常严重的偏见甚至歧视。但是在互联网上,数据和算法带来的偏见却很隐蔽”。如此一来,即使是有偏见的算法也容易因为人们的信任而“避过检查”,即使是由有偏见的算法导致的不公平结果也容易因为戴上了客观与科学的算法面具而被认为是公平的,即使人们在追查算法偏见导致的不良后果时也不会轻易将线索指向算法。
“有理由的卸责”:人工智能时代国家治理的责任难题
随着国家治理的数字化转型和智能化转型进程的不断加快,许多国家部门的行动越来越注重遵循算法的指示,“行政决策中人类形式上的参与无法掩盖算法作出实质决策的真相”。然而,算法并没有人们想象中的那么靠谱,它也可能产生不可预测的后果。一方面,想要设计出一种算法来解决某个问题可能需要写几十万行、几百万行甚至是上亿行代码,在此过程中难免会有所疏漏,从而使算法产生一些不可预测的后果。另一方面,算法毕竟是由人设计的,算法的优劣在很大程度上取决于算法设计者的认知能力、知识水平。算法设计者的认知能力、知识水平越高,就越有可能设计出优秀的、完善的算法,反之则有可能设计出劣质的、有漏洞的算法。再者,虽然针对特定问题设计出来的算法带有一定的稳定性,但是特定问题的发展态势会受各种自然和社会环境因素变化的影响,而算法设计者很难全面了解和控制环境的变化,因而设计出来的算法可能难以解决已经发生了变化的问题,“强行匹配”会使得算法的后果不可预测。
国家治理影响广泛的特性使得国家治理更不容有失,严肃问责可以倒逼国家部门尽职履责,尽可能减少治理失误。问题在于,当治理失误是由算法失误导致时,到底应该向谁问责或者说追究谁的责任呢?因此,当由算法失误导致治理失误时,国家部门可能卸责于算法开发企业或算法设计者。由于算法可以自我学习与升级,因此即使是算法开发企业或算法设计者本身,有时都无法完全清楚地知道算法为何那般决策。也就是说,在数据输入与结果输出之间,人们明确地知道存在一个计算环节,然而人们却无法洞悉计算的逻辑与过程,这就形成了所谓的“算法黑箱”。
企业自律+国家监管:人工智能时代国家治理难题的应对
(一)企业自律:应对人工智能时代国家治理难题的理想期许。人工智能时代的国家治理深刻依赖于算法,表面上来看,国家治理场景中的算法向善还是向恶主要取决于国家的选择,实际上,虽然一部分数据掌握在国家的相关机构手中,但是更多的、每时每刻都在更新的数据掌握在少数网络科技巨头的手中。因此,人工智能时代国家治理的算法依赖在某种意义上是国家对人工智能企业的技术依赖,国家治理场景中的算法向善还是向恶在很大程度上取决于人工智能企业的选择。
如果人工智能企业能够以技术向善“自律”,将技术向善内化为一种企业精神,将技术向善视为一种道德律令般的力量,在设计辅助国家治理的算法时尽可能对所用数据进行细致的检查,尽可能避免掺杂私利与偏见,并且尽可能以负责任的态度增加算法设计的严谨性和道德性,那么实现国家治理场景中的算法向善就要容易得多,或者说国家治理出现偏差的概率就要低得多。
(二)国家监管:应对人工智能时代国家治理难题的现实选择。推进国家监管,制度设计是关键。
其一,建立硬覆盖算法备案说明制度。凡是需要依靠人工智能企业提供算法支持的国家治理事务,相关人工智能企业都必须向国家提供算法设计理念与思路说明以及相关代码内容,以备检查。硬覆盖算法备案说明制度可以对试图主动嵌入偏见的算法设计行为形成震慑,也可以为日后算法失误的责任认定提供线索与证据,让人为失误与不可控制的技术失误得以辨识,促使算法设计者以更负责任的态度开展工作。
其二,建立不定时算法抽检审查制度。针对为国家治理提供技术辅助的各种人工智能企业以及各种旨在解决特定问题的算法,国家需要不定时进行算法抽检审查,防止人工智能企业“备用分离”,即备案时是一套算法,实际应用时又是另外一套算法,既防止人工智能企业单方面擅自调整算法,也防止算法在自我学习过程中“变坏”而无人知晓。不定时、突击式的算法抽检审查可以让国家更有可能看到处于真实运行状态中的算法或者说看到算法的真面目,可以压缩人工智能企业机会主义式进行算法设计的空间,使有偏见、有缺陷的算法无法长存,将“变坏”的算法扼杀于摇篮或萌芽之际,从而有助于避免后续的责任推诿。由于国家相关组织与部门在进行抽检审查时可能是“技术门外汉”,而人工智能企业则拥有更加专业的知识,因此可以考虑从多个人工智能企业中“借调”技术人才成立专门的行业性算法抽检审查机构,以此作为国家推进算法抽检审查的组织基础。行业性的算法抽检审查机构主要通过“过滤机制”发挥监督制约作用,即由算法抽检审查机构对为国家治理提供算法支持的人工智能企业进行算法抽检审查,“过滤”掉有问题的算法。这种方式可以对人工智能企业起到一种威慑作用,最起码可以威慑它们不敢刻意设计存有问题的算法。
其三,建立开放式算法结果观测制度。国家要充分借助“社会的力量”,形成一支开放式的灵活观测队伍。由于社会大众是治理智能平台、智能软件或智能程序的使用者,或者说社会大众是治理算法的直接受众,因此社会大众对算法到底是在为善还是在作恶最有发言权。通过建立开放式算法结果观测制度,让广大社会民众愿意及时向国家或行业机构反馈算法作恶的信息,而不是盲目相信一切算法和算法的一切判断,国家或行业机构就能依据更迅捷以及更清晰的信号采取行动。这样就会对试图误用和滥用算法的人工智能企业形成巨大的威慑,而对算法结果的重视也有利于抑制人工智能企业在算法设计环节嵌入偏见或降低要求的侥幸心理。
转自:“中国学派”微信公众号
如有侵权,请联系本站删除!