投稿问答最小化  关闭

万维书刊APP下载

信任人工智能何以可能

2023/8/18 9:33:24  阅读:36 发布者:

来源:

《中国社会科学文摘》2023年第7P42P43

作者单位:

中国科学院大学人文学院   中国科学院自动化研究所,摘自《自然辩证法研究》20232期,崔晋摘

在人工智能伦理研究中,道德主体、伦理责任、道德决策、生命伦理等皆有相关讨论。近期的人工智能发展愿景中广泛提及“可信人工智能”议题,但对“信任人工智能何以可能”问题缺乏足够关注。值得信任意味着人工智能有能力被信任。下面对人工智能理性社会规范信任的可能形式进行建构,以期寻找“人工智能可被信任”的条件。

理性社会规范信任意义上的人工智能信任,首先意味着相信受托人去执行意愿的行动,并期望这种履行行动是以“善意”为基础,继而基于受托人与委托人之间相互“善意”的关系,期待受托人履行期望行为;其次,基于这种期望,委托人应在行为上对受托人的信任中获得期望确定性;再次,作为一种社会规范,“他者视角”以及“自我视角”之间的关系使理性社会规范信任不仅有依赖确定性,还拥有基于社会关系的权利,期望受托人行为是基于善意的动机;最后,理性社会规范信任相较于其他信任描述,对委托人和受托人的关系具有更为清晰的展现,并通过对关系需求的建构,对“人工智能的信任何以可能”问题建构可能回答。

人工智能信任需要满足理性社会规范信任的需要。第一,委托人期望受托人执行期望行为的前提是自己不打算执行期望行为,委托人在期望行为上,关心受托人的现实行动,并依赖于受托人的行动去回顾自己的期望;第二,委托人相信受托人也应相信委托人对行为的期望是真实的。委托人与受托人的关系通过期望的真实性直接相连;第三,委托人的期望应与受托人直接相关,在受托人的行动决策之中,委托人的期望应具显著作用,在这种行动之中期望应该是被考虑到的。

托马拉和霍夫曼认为,理性社会规范信任的解释在委托人与受托人信任关系形成过程中,包括意向的需要、能力的需要、善意的需要,以及心理积极、预期期望接受。另外,理性社会规范信任的人工智能,还需考察在何种意义上具备现实的适应性。

第一,委托人对受托人履行期望、作出行为具有意向认识。委托人的意向意味着在受托人行为上倾注关心,并在意向上依靠受托人的期望行为。如果人在信任关系中成为委托人,意味着需要对人工智能完成期望具有现实意向。此外,倾注的关心也应当基于对人工智能的拟人化地位的接受。摆脱工具性依赖的关键,就在于需要赋予人工智能可被意向的能力。

第二,受托人应具有执行行为的现实条件,这些条件能被委托人接受。受托人不一定在委托人的期望中是万能的,而仅需对委托的期望具有实现能力。此外,委托人对受托人的期望不仅包括对行为的期望,还包括精神期望以及情感期望。委托人的期望目标也包含着对受托人能力的理解。为达到某一期望的实现,可通过不同能力的复杂组合,或是单一能力的直接呈现,标准在于期望目标的复杂度。对能力的期望要求也是信任和希望之间的差异之一。在人工智能信任中,能力需要涉及人工智能履行期望的多维度实现方式。精神期望和情感期望如何在人工智能能力中得以实现是其面临的关键问题。

第三,委托人期望在受托人履行行为的时候,其动机是善意的,包括对委托人的善意。基于理性社会规范信任的规定,委托人也具有善意权利,去期许受托人基于善意行为。善意的动机成为人工智能作为受托人的必要前提,这涉及人工智能如何在“关心”的意义上同等对待期望付出者。善意关联至人工智能的“动机共情”如何实现的问题。

第四,委托人在面对受托人执行期望行为时,心理状态应当是积极的。也只有基于心理积极,委托人对于受托人行为的意向才可被受托人接受。人对人工智能的心理积极应当表现为“对人工智能完成期望具有确定性”,而非“人工智能作为工具性依赖把握确定性”。心理积极在此意义上包含着对人工智能可能的非工具性期望。

第五,委托人需要预期性地接受受托人执行期望行为的方式。受托人行为的原始期望是基于委托人的内在感受,从内在感受出发,受托人的方法也作为限制性条件,反作用于委托人的期望之中,使委托人的意向之中包含了对受托人行为方法的接受。人工智能处理委托人期望的方式,应当被委托人预期性地接受,包括对期望完成可能的技术风险、伦理后果、应用偏差等。在预期期望的接受意义上,信任在人工智能与人的关系中成为必要的“知情同意”,使“可被信任”的要求不被滥用。

第六,对理性社会规范信任的解释应包括委托人所面临的脆弱性威胁。委托人的脆弱性风险,作为委托人与受托人关系的直接纽带,成为第六项理性社会规范信任需要。也正是在脆弱性风险意义上,使人对人工智能的信任需以赋权的形式达成另一种权力的获取。赋权意味着人工智能在完成期望时的无监督被保证,另一种权力指获得期望需被完成的动机权力。

基于理性社会规范信任,“人工智能的信任何以可能”这一问题在“人工智能成为合格的受托人,实现委托人期望”的意义上,直接关联到六种需要的满足。

在人工智能受托人的信任要求中,可能的反驳来自弱化的受托人需求。但弱化信任注定无法行之有效。

第一,弱化的对人工智能的信任将人工智能和人的信任相区分。区分存在的问题在于,如对人工智能的信任采取和人毫不相干的信任标准,就会使“人工智能的可能信任”问题成为彻底的理想叙事。鉴于目前人工智能的进展本质上局限于工具性,在人的信任语境之中嵌入人工智能信任问题,才可能成为行之有效的信任方式。另外,一旦降低了人工智能信任的标准,人工智能信任扩展就无法获得更多的支持理由,例如对人工智能信任采取工具性的信任,会导致人们对人工智能信任的误解长期存在,对真正解决问题无推动作用。

第二,对人工智能受托人需求的弱化,与理性社会规范信任间具有着明确的冲突。作为一种非主动性的态度,信任没有中间端,对不同的角色依赖同样无法证明信任有程度的区分。例如,亲缘关系、个体熟悉程度等的角色依赖,都无法对委托人和受托人之间的信任关系产生影响。信任只能出自期望行动的过程,而不是对角色的依赖。没有部分信任,只有信任或不信任。

第三,另一种被弱化的人工智能受托人状态,被描述为依赖人工智能受托人,在一些情景或个人状态之中,表达出对信任的反应态度。基于依赖与信任的区分,信任是在关系基础上所产生的规范性期望,而不是对情景的直接依赖。将人工智能信任基于对情境的高度依赖,就会对信任产生更多误解。

对理性社会规范信任不同需要的分析表明,信任在社会之中被提及并存在种种表现,原因在于信任的委托人权利基于共同道义准则,不仅具有社会与规范的期望,也具有对受托人完成期望的信念。

在人工智能理性社会规范信任的可能形式中,道德语言的使用在表达期望、执行承诺、作出承诺的同时,作为证词在脆弱性危机中保证关系的实现。社会嵌入保证了可通过证词促进关系的形成,并保证了信任作为规范获得理性的实现。人工智能在理性社会规范意义上,需要道德语言的介入,从而摆脱工具性理解。作为对期望的回应,人工智能受托人的承诺应以道德语言的“看不见的假设”证词展现在互动之中。

另外,在社会之中给予人工智能受托人的期望需要是自由的。自由是对委托人对受托人完成期望时面临监督不平等的反应。期望行为在委托人和人工智能受托人两方都不可强迫。对不确定性的追求成为信任过程中必需的特征——监督的缺位,给予信任以自由的空间。

由于缺乏真正意义的理解能力、自我、动机等方面的实质性进展,如今的弱人工智能远未达到可被接受的受托人水平。而可能的人工智能受托人如何在现实之中实现的问题,需在“人工智能与人的规范性联系”的考察中进一步展开。信任未来的人工智能,有待于从非工具性、非依赖性的理性社会规范意义上,满足意向、能力、善意、心理积极、预期期望接受、脆弱性风险等需要,从信任语境的规范理解以及信任过程的无监督出发,寻求信任关系的建构。

转自:“中国学派”微信公众号

如有侵权,请联系本站删除!


  • 万维QQ投稿交流群    招募志愿者

    版权所有 Copyright@2009-2015豫ICP证合字09037080号

     纯自助论文投稿平台    E-mail:eshukan@163.com