数字时代背景下算法歧视的特点、成因及其法律
发布时间:22-06-23 点击次数:173
摘 要:数字时代背景下,大数据、人工智能的广泛应用需要建立在算法技术的基础之上。但是算法技术的不合理利用会造成算法歧视,并具有隐蔽性、复杂性和连锁性的特点。通过分析可以发现,算法歧视形成的原因非常复杂,既包括作为算法运行决策基础的数据包含偏见和歧视、算法存在“黑箱”特性等技术性原因,也包括算法设计者在算法中注入歧视基因、算法从人机交互中习得算法歧视等非技术性原因。对此,算法歧视法律规制体系的构建必须从完善算法的监督审查机制、加强数据安全保护和对算法歧视进行法律问责三个方面入手,从而建立起事前、事中、事后的全过程法律规制体系。
关键词:算法歧视;法律规制;算法监督审查;数据安全;法律问责

一、算法歧视的概念及其特点

(一)算法歧视的概念
数字时代背景下,大数据以及人工智能的发展促使人类与科技的关系更加紧密,而作为数字时代核心灵魂的“算法”[1],从最初所倡导的和谐、中立和无害逐渐演变并暴露出它极具有伤害性和威胁性的一面,为人类社会带来新形式的歧视,这就是数字时代的算法歧视。它是指数字时代背景之下,依托于算法技术对相同或者类似主体造成的系统性和可重复性的不合理差别对待的数字分析与决策,触角逐渐伸向人类社会的各个角落,将威胁带向整个社会。算法造成的歧视是借助算法分析决策的手段来实现和完成的,这个过程貌似没有人的身影出现,但就造成的结果来看,其与现实生活中造成的歧视并没有什么根本性的不同,往往造成的损害结果也更隐蔽、更广泛、更沉重、更难以判断。
(二)算法歧视的特点
数字时代信息以大数据的形式充斥于整个社会,并借助算法这一媒介构建出种种新类型的社会关系,在这种背景下出现的算法歧视具有隐蔽性、复杂性和连锁性的特征。
算法歧视具有隐蔽性的特点。算法歧视的高度隐蔽性是与算法的特性密切相关的,利用算法模型收集、分析和处理数据并制定相关决策的整个过程都极具复杂性、模糊性和隐蔽性,整个过程难以为外界所认知。由于普通人并不具备理解算法的专业知识,即便告知其算法运行的逻辑和规则,也难以理解。同时,即便是算法技术人员也会面临算法技术上的壁垒以及算法商业秘密的规则保护,或者对算法技术的了解程度不够深入和透明性不够。
算法歧视具有复杂性的特点。从算法技术上来讲,算法语言极其复杂,算法的运行需要算法技术人员利用计算机技术将人类语言编译成算法语言,对此即便是算法专家也可能会产生理解上的困难,普通人自不待言;从算法的运行过程来讲,运行过程和运作细节极其复杂,通常我们只能知道算法在设定输入项之后,会通过一些列的步骤和运算产生输出项,其中究竟运用了哪些方法、经历了哪些步骤和运作,无人可以用语言详细描述,只能够盖然性的描述输入和输出间的过程,从而在输入和输出之间建立起相关性。
算法歧视具有连锁性的特点。算法技术发展到今天已经具备相当程度上的自主学习能力即深度学习,面对海量数据,算法能够快速地挖掘出具有关联性的数据并加以标记,一旦某个个体或者群体被贴上特定化的标签,那么算法模型难免会将这种标签和特征继承下来,并会被其他领域中的算法开发者作为基础数据用以训练新的算法模型[2]。那么,在其他领域同样会保留对个人或者特定群体的歧视性看法,从而在个人和群体之间造成连锁性的歧视后果。

二、算法歧视的成因

(一)造成算法歧视的技术性原因
产生算法歧视的技术性原因是指由于算法技术本身的局限和缺陷或者是由于算法技术在发展应用过程中的不成熟造成的歧视性后果[3]
作为算法运行和决策基础的数据包含偏见和歧视,而算法不可能离开数据而独自运行,算法的设计需要以数据输出为导向,算法的建立需要以数据分析为基础,算法的完善也需要不断借助数据开展深度学习。如果算法运行过程中的数据存在偏见歧视,算法本身也会因数据的偏见而产生偏见。现实生活中的一些信息本身就带有歧视和偏见的影子,如果将其作为基础数据用以训练算法模型,那么这些被偏见和歧视所“误导”的算法模型,将会不可避免地带有歧视的基因。
算法黑箱[4]的存在会造成算法歧视,这是指算法难以解释和为外界所理解的状态,从数据的输入到决策的输出以及两者之间的运行逻辑过程并不对外界公开,这造成了算法的不透明性,也使得算法歧视更加的隐蔽、令人不安[5]。算法黑箱会造成算法的运作过程难以观察、其运行方式难以理解认知,导致算法歧视。
(二)造成算法歧视的非技术性原因
算法技术离不开人的思想意识的主导和控制,因此,产生算法歧视的技术性原因是指由于人的因素造成的,这是其外部原因。
算法设计者在算法中注入歧视基因。算法并非客观中立,算法开发人员将外界固有的歧视嵌入到算法系统之中,使得算法天生就带有歧视的基因。算法的设计理念、开发和应用都是在人的主观意志下形成的,这个过程不可避免地会将人的主观因素如歧视和偏见嵌入算法程序中[6]。算法设计者受社会群体观念的影响,其个人主观观念难免带有认知上的局限和偏见;算法开发者可能无意识地将其带有局限和偏见的主观观念写入算法当中,从而造成算法歧视问题;同时,算法技术人员可能故意将歧视性观念写入算法。
算法运行过程中人机交互产生算法歧视。算法具有深度学习的功能,可以在人类行为的引导和影响下,表现出具有倾向性的行为,作出倾向性的决策。虽然算法可以自主学习和决策,但是并不能判别是非对错和作出价值判断。如果在算法深度学习的过程中,人类不断为算法灌输歧视性的数据并引导其做出决策,那么算法无法识别并排除歧视性的数据,只能依据这些歧视性的数据作出预测,从而造成歧视性的后果。例如,不断引导算法将“有色人种”与“野蛮”相联系,就会导致算法产生这样的歧视性观点。

三、算法歧视法律规制的构建

算法歧视的现象之所以出现并且愈演愈烈,归根结底是由于算法技术的滥用以及缺少必要的限制。因此,对算法歧视进行法律规制必须要立足于算法这一根源。
(一)算法歧视的事前规制:完善算法的监督审查机制
要实现对算法歧视的事前监督审查,必须从互联网平台这一私主体和国家行政部门这两个主体入手,构建起对算法应用的监督审查机制。一方面,作为私主体的网络平台应当提高算法规制的意识,加强在算法应用中的自我监督,主动承担起算法审查的义务。面对算法带来的负面影响,互联网平台当然有义务加强对算法的审查,也有义务加强自身监督来规避算法歧视[7]。互联网平台对算法的审查应当包括算法的设计是否存在缺陷、运行状况是否良好、决策是否存在歧视,如果算法运行产生的结果造成了对社会公众的歧视,应当立即对算法采取措施以消除歧视。
另一方面,国家行政部门比如国家网信办应当对互联网平台开发设计的算法进行审查监督[8]。国家网信办对算法的审查监督应当是一种全过程的审查监督,在算法应用前应当建立起算法应用前的备案制度,并要求算法开发者说明算法的运行逻辑和作出决策的依据;在算法应用后,应当定期对互联网平台的算法应用进行抽查,对于造成的算法歧视进行规制,责令平台进行整改并给予处罚。
(二)算法歧视的事中规制:加强数据安全保护
在数字时代的背景下,数据是最为丰富的资源。遏制互联网平台对数据资源的肆意攫取,能够有效维护公众的利益。加强数据安全保护,也就是要求互联网平台等数据资源的掌控者应当采取措施避免侵害公民的数据权,是在算法实施的过程中规制算法歧视的重要手段和步骤。一方面,应当确保作为数据主体的社会个体能够自由地控制其个人数据,作为数据的产生者和所有者,数据主体应当能够自由地处分其在网络活动中产生的数据,而不会受到互联网平台的任意限制或者隐藏;另一方面,应当保证作为数据主体的数据可携带权[9],在一定的条件下,社会个体有权要求数据资源的掌控者将从该个体处获取的个人数据,按照该个体的要求传输给另外一个数据资源掌控者,从而实现数据的可携带性。
(三)算法歧视的事后规制:对算法歧视进行法律问责
算法歧视会对个人和社会产生产生巨大的危害,因此必须建立起算法歧视的法律问责体系,实现权利的救济和利益的保护。然而,算法应用的不透明性使得算法的收集、分析和决策过程变得难以理解,这导致难以对算法进行归责,也难以对算法歧视造成的侵害进行法律救济。为了解决上述状况,一方面,必须对算法进行解释,实现算法的可解释性[10],也即对算法决策的过程和决策的依据进行解释,从而便于对算法歧视进行问责,根据对算法的解释,可以确定是算法开发者的责任还是算法使用者的责任,帮助明确算法歧视侵权的责任主体;另一方面,由于个人专业知识的限制,个体很难针对算法歧视自力实施维权行动,因此可以设立专门的投诉举报通道协助个体维护权益,此外还可以建立健全公益诉讼机制针对造成群体利益侵害的算法歧视行为提起公益诉讼。
 
参考文献:
[1]何邦武.网络刑事电子数据算法取证难题及其破解[J].环球法律评论,2019,41(05):65-81.
[2]张恩典.反算法歧视:理论反思与制度建构[J].华中科技大学学报(社会科学版),2020,34(05):60-71.
[3]卜素.人工智能中的“算法歧视”问题及其审查标准[J].山西大学学报(哲学社会科学版),2019,42(04):124-129.
[4]杨文明.算法时代的垄断协议规制:挑战与应对[J].比较法研究,2022(01):187-200.
[5]张莉莉,朱子升.算法歧视的法律规制:动因、路径和制度完善[J].科技与法律(中英文),2021(02):15-21.
[6]刘朝.算法歧视的表现、成因与治理策略[J].人民论坛,2022(02):64-68.
[7]张凌寒.风险防范下算法的监管路径研究[J].交大法学,2018(04):54.
[8]许可.算法规制体系的中国建构与理论反思[J].法律科学(西北政法大学学报),2022,40(01):124-132.
[9]谢琳,曾俊森.数据可携权之审视[J].电子知识产权,2019(01):28-39.
[10]刘艳红.人工智能的可解释性与AI的法律责任问题研究[J].法制与社会发展,2022,28(01):78-91.
 
基金项目:2021年江苏省研究生培养创新工程研究生科研与实践创新计划,项目名称:网络电子数据算法取证的可解释性研究(项目编号:SJCX21_0876)
作者简介:黄奥威(1996-),男,汉族,安徽亳州人,硕士研究生,研究方向:网络法,证据法。
 
 

联系电话:029-81130634

投稿邮箱:qinzhibjb@126.com qinzhibjb@163.com

Copyright © 2021-2022 秦智杂志社 版权所有 Power by DedeCms |