AI研习丨数字社会算法裁决过度风险与公平计算前沿

AI研习丨数字社会算法裁决过度风险与公平计算前沿
2024年08月05日 17:22 中国人工智能学会CAAI

文/吴联仁,李瑾颉

摘 要

数字社会的技术核心算法在运行过程中产生的隐私侵害、“信息茧房”、被算法操纵等风险,逐渐显现为侵害社会公众的隐私权、公平权,并对数据安全形成威胁甚至破坏,从而导致对社会危害现象的发生。为此对一系列算法过度裁决的风险进行了研究,加强对算法公平和公平计算的理解,通过把握算法裁决过程中可能面临的风险与挑战,提前制定出可行的应对策略,有助于在算法决策过程中进行风险防控。

关键词

数字社会;算法公平;决策系统;公平计算;算法治理

0   引言

数字经济的核心是数据,大数据、人工智能等技术对经济社会中各种数据广泛和实时的采集和处理,使数据像工业时代的石油一样成为数字经济时代最重要的生产要素。算法是强制给定的有限、抽象、有效和复合的控制结构,在一定的规则下实现特定的目的。随着人工智能技术的广泛使用,一个算法社会正在到来。算法在带动经济增长、提高经济效率、丰富和便利生活的同时,在信息传播、个人隐私、弱势群体利益等方面的负面影响和风险也暴露出来,需要高度重视并加强算法规制。数字社会算法过度裁决造成的负面影响和风险主要包括以下四个方面。

第一,侵害用户隐私。一方面,大多信息的获取没有得到消费者的许可,属于非法采集;另一方面,个人虽然是数据的生产者和所有者,但是这些数据一旦被互联网公司获取后就脱离其最初所有者的控制,个人不但无法知晓自己的信息被用于何处,而且在后续的使用中可能会威胁个人的隐私,甚至可能对个人的财产和人身安全造成损害。

第二,造成算法歧视。在传统的商品市场上,商品的功能和质量高度标准化,价格不同很容易被发现,而互联网服务通常是基于特定时间和特定场景的,时间和场景不同,市场上的供需关系就不同,并由此形成不同的市场价格,这就造成“大数据” 杀熟更难被察觉,也更难被举证。

第三,形成“信息茧房”。人们被算法圈定在“信息茧房”里,被动地接受算法让人们看到的信息。在社会层面,“信息茧房”还会形成用户观点的极化,造成不同群体之间的交流障碍,甚至由于思想的偏狭引致群体间的误会,催生极端行为,引发社会矛盾和冲突。

第四,损害弱势群体。数字经济的发展和算法的广泛使用不会自动地平等惠及每一个人,弱势群体反而会成为算法的受损者。

1   数字社会算法风险

1.1 算法裁决过度风险

2020年9月,自然杂志子刊《机器智能》(Machine Intelligence)刊登了一篇文章《我们赖以生存的算法》,尖锐批评英国政府运用算法预测学生高考成绩,认为用学生平时成绩预测高考成绩是对既有社会分化的固化和极化。人们似乎认为,算法是人类共同面对的、前所未有的敌人,算法之恶已令社会深恶痛绝。为此,如何应对算法的利弊,让算法更好地服务于人类社会?

数字社会的算法与社会的强互动形成算法对生产、生活和治理的实时参与,适合德国社会学家马克斯 ● 韦伯(Max Weber)提出的权力分析框架。在 数字社会的算法呈现其社会影响力时,计算社会学权威大卫 ● 拉泽尔(David Lazer)呼吁人们关注算法的影响,并提出“社会算法”(social algorithm),指出计算程序有能力掌握、评估我们的期待并提供个性化的体验。其实这是一种误导,把算法提供的建议当成强制,以为算法掌握了某种社会权力,甚至是霸权。

近些年,随着中美欧出台的算法治理相关法律的落地和算法治理文献数量的爆发式增长,北京大学中国社会与发展研究中心主任邱泽奇在归纳既有文献基础上,认为数字社会算法过度裁决带来的风险主要有三类。

一是算法风险。在个体层面,算法是强化着“信息茧房”、带来人的认知窄化风险;在市场层面,算法遵循商业逻辑,酝酿着监控资本主义的风险;在国家层面,算法隐藏着被特定利益集团用于社会控制和政治权力再生产的政治风险。

二是算法侵害。现实生产和生活中已经出现了算法歧视、算法偏见、算法共谋、算法垄断、算法黑箱、算法遮蔽、算法短视、算法霸权、算法操纵和算法剥削等与算法关联的侵害,给人类社会生活、 经济,甚至政治带来了负面影响。

三是,除算法带来的风险和侵害,还将算法影响上升到制度层面,认为算法权力和算法规则是触发规则竞争、权力竞争,甚至规则垄断、权力垄断的根由。

1.2 算法裁决与公平

算法作为数字化时代的产物之一,成为帮助组织快速进行决策及判断的重要工具,被广泛应用于组织管理中。由于算法决策在现实中日益普遍的应用,并对组织和身处其中的成员产生重要影响,研究者们也开始越来越关注成员对算法决策 的感知和反应。关于员工对算法的感知,现有文献中存在两种观点,一种是算法欣赏(algorithm  appreciation),认为算法更加高效、准确、客观,人们会更加信任算法决策;另一种则是算法厌恶(algorithm aversion),认为人工决策可以允许员工在决策过程中有更高的参与和控制感,人们会更倾向于选择人工决策。

与这两种观点紧密相关的是算法决策(相对于人工决策)对员工公平感的影响。近年来,算法决策如何影响员工的公平感也受到关注,但并未呈现一致的研究结果。具体来说,一些研究发现,相对于人工决策,算法决策会带来更高的公平感,因为算法决策具有更高的一致性、无偏性,以及使用的信息更加准确等。然而,另一些研究则发现算法决策未必会导致更高的公平感,因为人们认为算法没有考虑质化信息、 不够情境化、无法进行主观评价。这些不一致的研究发现,意味着在决策者类型(算法决策vs.人工决策)与员工公平感的关系中可能存在重要的调节因素,使得两者的关系在不同情境下呈现出不一样的结果。

探讨这些潜在的调节因素对于我们更全面、具体地理解算法决策,对员工公平感及其后续行为的影响非常重要。根据归因理论,员工会对涉及自身的决策进行解释,而这种解释会影响他们对于该决策的反应。特别地,人们面对有利和不利的结果,会进行不同的归因。关于自我服务归因偏差(self-serving attribution bias)的研究发现,当面对有利的决策结果时,员工更倾向于归因于自身因素,因此其公平感较少受外部因素(如决策者特征)的影响;相反,当决策结果不利时,员工更倾向于归因于外部因素,如决策者。此时,由于员工对于算法和人工这两类决策者的无偏性、一致性和准确性等方面有不同的感知会产生不同程度的公平感。因此,基于归因理论,有学者认为决策结果的有利性可能是影响决策者类型与员工整体公平感之间关系的一个重要调节变量。决策者类型与决策有利性的交互作用不仅会影响员工的公平感知,还会影响员工后续的行为结果。其中,特别值得关注的是员工的偏差行为。员工在应对算法过程中,表现出的针对组织或社会的偏差行为已经引起广泛关注。关于公平的研究也发现,当员工感到不公平时会展现出更多的偏差行为。因此,魏昕等提出了如图1所示的研究模型,探讨决策有利性如何调节决策者类型,通过 员工公平感对员工偏差行为产生的间接影响。

图 1 研究模型

2   算法公平与公平计算

2.1 算法公平

2022年8月12-14日,在浙江杭州举行的CAAI第七届全国大数据与社会计算学术会议上,中国人民大学信息学院孟小峰教授进行了题为《算法公平与公 平计算》的报告,从历史的角度揭示算法公平(AF)的发展过程,并提出从社会偏见、数据偏见和模型偏见三个维度认识算法公平,揭示其相互作用关系。2022年,马特乌斯-多拉塔(Mateusz Dolata)等在国际信息系统期刊Information Systems Journal发表文章A Sociotechnical View of Algorithmic Fairness(关于算法公平的社会技术观点),其中算法公平被认为是一种新出现的技术,它可以减轻自动决策中的系统性歧视,为改善信息系统(IS)的公平性提供机会。他们基于对310篇文章的系统分析,首先对当前关于算法公平的讨论中的基本假设提出了问题;其次,通过将算法公平理论化为一种社会技术结构来回应这些假设;最后为信息系统研究人员提出了方向,以通过追求独特的对社会技术性算法公平的理解。呼吁并采取全面的办法来处理算法公平。

2.2 公平计算

孟小峰教授指出,从广义上来看,一切使用算法手段在社会矛盾纠纷中实现公平的方法都可算作算法公平范畴。并将实现广义算法公平的过程称之为“公平计算”(fairness computing)。公平计算应该成为算法治理的重要手段,其核心要素包含公平定义与量化、公平监测预警和公平方法权衡等内容。2021年梅赫拉比(Mehrabi)等发表论文 A Survey on Bias and Fairness in Machine Learning( 关于机器 学习中的偏见和公平的调查 ),提出了如图2所示的数据、算法和用户互动反馈回路中的偏差框架。

图 2 数据、算法和用户互动反馈回路中的偏差框架

希拉-米歇尔(Shira Mitchell)等和马特乌斯-多拉塔(Mateusz Dolata)等提出了公平计算的数学模型。从跨领域的角度给出了如下算法中偏差的处理方法。

• 预处理(pre-processing)。预处理技术试图改变数据,以便消除潜在的歧视。如果允许算法修改训练数据,那么就可以使用预处理。

• 内处理(in-processing)。内处理技术试图修改和改变最先进的学习算法,以便在模型训练过程中消除歧视。如果允许改变机器学习模型的学习程序,那么在模型的训练过程中,可以通过在目标函数中加入变化或施加约束来使用内处理。

• 后处理(post-processing)。后处理是在训练后,通过访问模型训练过程中未涉及的保留集来进行的。如果算法只能把学到的模型当作一个黑箱,没有任何能力来修改训练数据或学习算法,那么只能使用后处理。模型最初分配的标签在后处理阶段会根据一个函数重新分配。

3   算法治理

3.1 算法治理法律法规

算法对人类社会生活影响的普遍性和深刻性使算法成为堪比自然环境的人工环境,算法影响的利弊两面性,以及算法侵害的不断出现将人类推入算法治理时代。邱泽奇指出,中美欧在算法治理领域的探索实践呈现不同格局,美国从防范算法侵害入手,形成了政府和第三方的问责模式;欧盟从数据 保护入手,逐渐与美国的问责模式汇流;作为数字 时代三方国际力量之一的中国,从1994年制定第一部相关行政指令《计算机信息系统安全保护条例》到目前,共出台了60多部相关法律法规和行政指令。从时间书序来看,可以认为我国的算法治理是从总体安全入手实施治理,但尚未形成有法理逻辑和明确操作路径的算法治理模式。表1列出了对算法治理起到关键影响的法律法规。

表 1 算法治理代表性法律法规

3.2 算法治理的框架

基于欧美在算法治理中的经验教训,并结合目前我国算法治理存在的问题,清华大学公共管理学院曾雄和中国信息通信研究院胡坚波等学者就算法治理框架的构建提出以下方向性的政策建议。

(1)在治理目标上,实现算法可问责与算法经济高质量发展。算法治理的根本目标在于促进算法经济的高质量发展,在日益复杂的国际竞争形势下,提高自主技术创新的能力和水平是国家安全发展的根本出路。

(2)在治理对象上,建立一套共性的规则和标准后统筹考虑多元应用场景基于对拓宽算法治理对象的考虑,可以制定一部《算法问责法》实现算法的综合治理,并为算法问责建立一套完整的责任机制,包括明确问责主体、被问责对象、问责方式和程序,以及问责事项等。

(3)在治理手段上,补强司法救济和技术治理措施,推行“遵循伦理的设计”机制可以确立算法的底层伦理标准,实现事前干预。利用算法评估提前研判安全风险,利用技术手段预警日常风险隐患,利用行业标准明确算法运行底层逻辑。

(4)在治理模式上,积极构建多元主体协同的治理模式。发挥政府在算法治理中的主导作用,规范企业切实履行算法治理主体责任,引导行业组织积极参与算法治理,鼓励公众参与算法治理,完善社会监督,深化算法治理国际合作。

4   结论

在社会规则算法化的过程中,针对算法运行流程本身,算法设计人员会将自己的主观意识,比如问题的定义、数据的收集、模型的选择都会有意无意融入到算法规则,这会对算法的结果造成影响。同时算法过度决策会给公众造成巨大的困扰,比如公众只注意自己选择的东西和使自己愉悦的通讯领域,从而形成“信息茧房”;算法继承了来自于社会本身的偏见问题,并且进一步放大;在做出判断和决策时,被算法操纵等。这一系列风险在使用人工智能和大数据算法时是不可避免的,在使用算法时,我们需要对风险识别、形成机理、评估和预警,以及治理等问题开展研究,为人工智能和大数据等新技术平稳安全落地,服务人类社会。

(参考文献略)

选自《中国人工智能学会通讯》

2022年第12卷第11期

数字社会的风险挑战与治理应对专辑

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部