Sci论文 - 至繁归于至简,Sci论文网。 设为首页|加入收藏
当前位置:首页 > 法律论文 > 正文

人工智能时代算法歧视的程序法规制研究论文

发布时间:2023-10-21 16:06:30 文章来源:SCI论文网 我要评论














SCI论文(www.lunwensci.com)

  摘要:算法歧视附带的价值偏差、能力偏差与制度偏差难审查,算法逻辑与商业秘密难公开, 算法损益与责任主体难明确等困境威胁社会公平,但我国相应的程序法付之阙如。我国需从伦理 审计与公平性约束、涉密证据保护与算法解释度、设立庭前会议、认定责任主体、拟行公益诉讼等 路径出发规制算法歧视, 消除滋生歧视的制度温床, 推动人工智能时代算法的良性使用。

  国内学者对算法治理的探讨观点众多,石颖 从三维视野将算法歧视的规制挑战分为技术建构 上的结构性挑战,算法运行上的功能性挑战,平 等权消减、算法权力扩张以及法律功能异化的隐 藏性挑战。曹博以二元逻辑从内外规制的体系结 构、算法运行的“黑箱化 ”与内部规制的冲突、 算法逻辑的相关性本质与外部规制的本质角度分 析了传统范式下算法歧视规制的结构缺陷和制度 难题。已有的研究对算法失当治理和算法责任规 制具有参考价值,但尚有不足之处:第一,缺乏 从程序法角度科学界定算法责任的内涵、范畴边 界、内容构成;第二,缺乏从歧视生成全周期视 角下的系统性、权威性的算法歧视程序法治理范 式;第三,结合案例研究较少,对现实观照不足。 由此可见,现实困境、理论缺陷和政策风向都呼 吁着算法责任治理的程序法规制进一步发展。 程序法规制研究在算法伦理治理视阈下典型且聚 焦,对算法伦理危机和算法归责制度构建是一种 有效思考。
\

  一、人工智能时代算法歧视的内涵演进

  ( 一 ) 算法歧视的生成缘起

  20 世纪,计算机科学之父艾伦 · 图灵开发出 现代计算机的雏形并预见了现代算法的定义:在 有限的步骤中产生问题的答案或问题解决方案的 系统程序。而歧视指针对特定群体或成员的无理 负面、有违公平的不道德行为,算法歧视是数据收 集和分析过程本身的产物,即使设计者有最佳意 图,数据驱动的算法决策也可能导致歧视性做法 和偏见结果。人类社会的歧视多来自消极态度 (如 历史沿袭的陈旧价值观、阶级不平等带来的差距等)和无意识偏见 (如组织或群体文化),人际歧视 有迹可循。算法系统中的歧视更抽象、更微妙 、 更无形,不存在人类歧视的等效信号机制 (如愤 怒和道德义愤)。带有歧视的算法程序会复制和继 承现存的歧视模式,加剧、新增社会根深蒂固的 偏见。

  ( 二 ) 算法歧视的类型界分

  算前歧视即机器在执行设计者指令的过程中 反映了人类的自身的意见和偏见,算法运行隐含 着明显的、可复制性的、程序性的缺陷,且这些缺 陷导致输出端不公平、歧视性的结果。

  算中歧视归咎于机器智能本身,使用者提前 植入的算法逻辑和划分规则是正当的,但通过计 算机不为人所明析的算法运作,最终出现对不同 群体的区别对待,“ 由数据分析导致的对特定群 体的系统性的、可重复性的不公正对待 [1] ”,通常 发生于计算机读取、收集与分析数据时段,也被 称作自动化歧视 [2] 。

  研究基于此视角将算法歧视分为歧视发生于 算法前 (人类建模)、 歧视根生于算法 (机器建 模 )、 歧视发生于算法后 (算法应用) 三类,并深 度分析算法歧视的滋生原因、规制困境,提出程 序法规制策略。

  二、人工智能时代算法歧视的滋生肇因

  ( 一 ) 歧视先行于算法设计 —— 有限理性、社 会规训与数据偏差

  第一,算法歧视是人类意识的延伸,是人类社 会的偏见、歧视和刻板印象在计算机这一虚拟世 界的映射和转化,是对现有文化中存在的歧视进 行归纳或“ 同构 ”后形成的数字社会下的文化禁锢和社会禁锢;第二,数据样本质量参差不齐是 算法外来歧视的另一重要源头。在算法系统中, 数据大多被默认采集,缺乏对最终用途或集体含 义的明确取向,从而走向普遍数字行为主义。

  ( 二 ) 歧视根生于算法设计 —— 标签化归纳的 技术逻辑、算法黑箱与人机差异

  第一,算法的智能化体现在对新数据的归类 预测功能,这一功能的底层逻辑是从现有的样例 特征中提取、归纳、总结出普适规则。算法歧视 就生发于系统不完全归纳和不合理归纳行为下。

  第二,代码的编写和审阅高度专业化,技术壁 垒会造成算法不透明。算法黑箱是造成算法歧视 难以审计、难以监管的重要原因 [3] 。人工智能 的学习能力有限,无法辨别并拒绝语料库中的 偏见,如族裔歧视、区域歧视、性别歧视等。算 法决策的黑匣子在某种意义上剥夺了公众的选 择权和参与权,侵犯了公民基本权利,而无需被 问责。

  ( 三 ) 歧视后行于算法设计 —— 数据杂糅、信 息茧房与非中立性评估导向

  算法在实际运行时会基于不同的数据条件或 运行环境产生差异性决策结果。在数据动态交互 情境即实施过程中,造成算法歧视的原因可归纳 为数据杂糅、信息茧房和非中立的数据评估导向 三类。

  一是隐私信息和公开数据的杂糅使用。信息 化时代,公民的人口学信息和隐私被商业算法平 台非法收集、存储并用于开发营利。算法在运行 中的决策已超出人为控制,系统会通过挖掘数 据样本的标志性特征进行匹配性归纳,并输出差 异化指令,将未经科学验证的相关关系强加于主 体;二是算法的信息茧房效应。算法通过个性化和 差异化服务为平台吸引黏性用户,但过度投用户 所好剥夺了用户全面了解信息的机会,平台资本 的逐利性不断与算法进行着相互改造、协商与建 构。精准刻画用户画像、把握用户心理的手段往 往造成过度攫取用户隐私信息,引发标签化分类 的算法歧视;三是算法应用主体的非中立性评估 导向。信用评估通过交易记录的批量分析来预测 用户的违约概率,这一思路多见于自然科学领域 的概率统计 (如工程师用一千座桥统计接下来可 能会塌方的桥 ), 调查结果对调查客体没有影响, 但测试违约概率的信用评估会影响评估客体 (人) 的违约概率。

  三、人工智能时代算法歧视的程序法约束困境

  ( 一 ) 歧视生发于设计前 —— 价值偏差、能力偏 差与制度偏差难审查

  来源于算法开发者、设计者、部署者和应用 者 (人或组织) 的算法歧视均属于人为型算法 失当,算法开发行为主要受到主体价值认知、道 德判断和制度文化的影响。价值偏差上,算法使 用平台多秉持纯粹自立原则,追求自我利益最大 化,完全忽视算法对利益相关方诉求和社会价值 的关切,甚至不惜踏破社会道德底线牟取暴利;能 力偏差从算法设计者出发,要求其不仅要有算法 编码技术,还有具备审视算法是否符合社会利益 的能力,对于敏感议题、引诱型设计、伦理缺陷设 计有感知力,减少问题算法程序的诞生。制度审 查上,当前广泛部署的算法多采用商业逻辑,缺 乏社会责任制度约束,算法开发者完全处于相对 “ 自由 ”状态。

  ( 二 ) 歧视生发于设计中 —— 算法逻辑与商业 秘密难公开

  在数据保护适用惩罚性赔偿案中,数据类经 营信息符合商业秘密构成要件的,应予保护,审 查中应结合数据组成和行业特征认定其保密性、 秘密性、商业价值。网络原始数据组成的衍生数 据或大数据,或网络公开数据结合其他尚未公 开的内容组成新的数据信息,可依据秘密性要件 审查其是否构成商业秘密。数据类信息应结合行 业现实状态及载体的性质,保密措施的可识别程 度,认定保密措施应以适当为标准。直播平台中 奖数据反映经营者特定经营策略及经营效果,体 现用户打赏习惯和消费习惯等深层信息,可为经 营者提供用户画像,吸引流量,获得竞争优势,具 有商业价值。

  ( 三 ) 歧视生发于实施中 —— 算法损益与责任 主体难明确

  规制算法歧视最基本的考虑是归因和责任分配,让相应实体对其决策和算法输出负责。算法 歧视层面的约束难度在于:第一,算法歧视造成损 失伤害难以具象量化;第二,跟踪算法歧视的输出 路径不易,当前技术无法对算法黑箱彻底解密; 第三,责任分配不易,全球化背景下,算法的设计 涉及多方主体的共同努力,在负责设计算法的实 体没有预料到的情况下,其他实体可以出售、复 制、修改或使用算法的核心源代码。一旦算法造 成伤害或损失,往往难以划分、识别和追究算法 相关责任主体的责任。

  四、人工智能时代算法歧视的程序法规制路径

  ( 一 ) 针对算前歧视的伦理审计与公平性约束 1.正当程序原则

  公权力领域,智能化进程加快也催生了算法 歧视。提高公权力领域算法运行的正当程序要求 是从制度偏差规制算法歧视的有效途径。在算法 决策参与司法活动时,不同应用场景的算法要遵 循严格适配的程序要求,例如犯罪风险预测算法 会导致犯罪治理活动启动时点前移,对侦查前带 有预测性证据的使用应当作出严格限制;在审判 电商平台检索服务的算法是否公平时应充分考虑 电商平台的功能定位、人工智能的发展阶段等因 素,既要考虑到消费者对平台推荐结果的依赖性 进而严格审查检索算法的合理性,也要充分尊重 电商平台的经营自主权。

  此外,算法黑箱的善意使用应该被尊重和允许,例如为保护高校贫困生的自尊而利用算法黑 箱进行的扶贫助学,高校通过后台算法来监测学 生每月在食堂的消费频次、每顿消费金额来判定 是否贫困,依据算法结果为贫困生打入补助。即利 用算法“歧视 ”规避公开评定与资助引起的歧视。

  2.实施过错举证责任倒置

  在我国民事纠纷中,商品交易中的诉讼一般 由被侵权人举证,但是人工智能下的算法歧视纠 纷,公民相较于开发者、使用者处于弱势地位, 算法歧视诉讼程序的取证步骤难以实现,可以尝 试利用举证责任倒置原则,从“法无规定不可为 ” 到“法无禁止皆可为”, 让算法程序的设计者来举 证证明自己算法程序的正当性,通过自己披露各 项信息、报备数据以及其他平台条例,证明自己 设计的算法是合理正当地获取数据,帮助用户决 策,并对可能出现的算法歧视自律自查。如果设 计者不能充分证明,就存在违法的可能。

  大数据产品或服务提供者使用公共数据时, 应遵循来源合法原则、注重信息时效原则、保障 信息质量原则、敏感信息校验原则。对公共开放 数据的不正当使用没有尽到必要的注意义务, 导致法人或自然人等原始数据主体的合法利益受 损,公共数据使用者应承担相应的法律责任。平 台可以通过委托鉴定的方式推演算法逻辑,必要 时可通知鉴定人和双方的技术辅助人员出庭做出 专业解释,辅助司法程序顺利运行。

  ( 二 ) 针对技术本身的涉密证据保护制度与算 法解释制度

  1.建立涉密证据的保密制度

  第一,如有必要法院要依据实际情况限制证 据交换范围。如果平台或者算法设计者提供的证 据包含了企业机密,这部分证据可以规定不允许 原告,即对方当事人查阅、摘录或者以任何方式 复制。但法院作为司法机关有权裁决证据的证明 力,这在一定程度上可以打消被告方公开数据的 担忧,又能保证事关算法歧视的证据不因既定的 交换程序而给企业带来损失。

  第二,人工智能时代下算法歧视的程序法规 制可以借鉴德国民事诉讼的经验,引入第三方保 密机构的协助,在涉及保密证据或者商业机密时, 应当事人要求,经法院允许后将案件所需证据移给 第三方机构质证,这类思路常见于专利侵权诉讼 案中,其中涉及企业获利的商业秘密,必要时需 要公司财务证明等,这些证据涉及商业机密,如 果按正常程序交换证据,对于作为被告方的企业 往往不利,若因程序设置不当造成更大的经济损 失,则得不偿失。

  2.算法解释制度

  保证公私领域算法决策的可见性,即数据主 体享有“知情同意原则”, 数据主体应当充分意识 到自己的法定权利,数据控制者应当充分遵守自 身的法律义务。平台行使算法需事先披露治理机 制、管理规则以及算法相关技术原理,而且应当 保障用户的知情同意,同时亦应赋予用户对算法 自动化决策提出质疑和申诉的权利。当事人对算 法参与环节、干涉方式和程度有知情权,且有权

  合理怀疑算法歧视的存在,算法必须征得当事人 对于自身数据的合理采用的明确同意。

  ( 三 ) 歧视生发于算法设计后 —— 引入庭前会 议、认定责任主体、拟行公益诉讼

  1.引入庭前会议制度

  庭前会议适用于“证据材料较多,案情重大 复杂,控辩双方对事实、证据存在较大争议的以 及社会影响重大的案例 ”中,算法歧视诉讼案可 以借鉴这一思路。庭前会议的工作涉及明确当事 人诉求、调查收集证据、组织交换证据、归纳争 议焦点、进行庭前调解等等。考虑到算法歧视案 件的特殊性,法官可以通过庭前会议制度梳理基 本案情,对于有意思自治的双方当事人可以进行 调解,当算法歧视诉讼案件的双方当事人争议过 大,或案件较复杂需进一步审理,再将案件转入审理程序。

  2.认定算法歧视的责任主体

  明确算法歧视案件的责任主体是规制算法歧 视的必要步骤,但由于算法领域本身的复杂性, 责任主体认定难以落实。参考《 中华人民共和国 民法典 》侵权责任编的思路,算法歧视案例的责 任主体可以分为三类,即算法开发者、算法使用 者和侵权责任人。

  纠纷因算法内部造成时,责任主体为算法开 发者;纠纷起于算法使用过程,甚至是使用者恶 意滥用算法,需追究算法使用者责任。在利用程 序法规制时,单独数据利用行为,应当结合行为 的方式、手段、目的、后果等综合分析。适用《 中 华人民共和国反不正当竞争法》“ 一般条款 ”判 断数据不正当竞争行为,可以结合原告主张保护 的数据类型及程度、被控行为给原告造成的损害 程度、数据获取行为突破原告限制措施的情形、 数据利用行为的创新程度进行判断。若算法的开 发者即使用者,二者一致,那就基于《 中华人民 共和国电子商务法 》来追究经营者,即使用者的 责任。

  3.建立算法侵权公益诉讼制度

  主观上,大数据算法歧视的技术门槛决定了 大多数用户群体难以真正深度了解和直接接触, 甚至对于事后的救济途径都缺乏了解。所以开通 算法救济渠道、建立行之有效的算法诉讼公益制 度、为算法歧视受害者提供专业的救济是直接且 行之有效的解决办法。

  客观上,我国程序法的当事人适格理论,是指 对于特定的诉讼可以自己的名义成为当事人的资 格。适格当事人就具体的诉讼作为原告或者被告 进行诉讼的权能。算法可能因未实际享有实体权 利、承担实体义务被判定为非正当当事人,算法 歧视案件难以被受理。在现有法律救济手段存在 盲区的环境下,公益诉讼制度立足于启动对特定 侵权公益行为的国家追诉。在现今算法歧视治理 法律缺位及失灵情况下,算法歧视公益诉讼有望 成为人工智能时代公益诉讼制度在算法歧视治理 层面的预设性尝试。

  在我国,公益诉讼制度分为民事公益诉讼和 行政公益诉讼两类,当算法设计者和使用者的算 法侵权行为被起诉,原告要求被告停止侵权行为、 赔偿相关损失、消除或者降低算法歧视带来的消极影响时,适用民事公益诉讼;当算法歧视行为的 过错更多在于行政管理部门的不作为甚至放任, 原告要求追究管理部门责任,要求管理部门履行 职责时,适用行政公益诉讼。

  在立案模式上,算法歧视公益诉讼可仿效环 境公益诉讼采取综合立法与分散立法相结合的立 法模式,算法歧视的公益诉讼可以对两部基本法 的司法解释进行延伸应用;受案范围要结合层出 不穷的新型算法歧视不断扩展,学者刘玉绰主张 应该将以催化算法歧视为目的的个人信息侵犯行 为,算法产生的族群歧视、性别歧视、年龄歧视、 大数据杀熟、算法定价共谋纳入算法歧视公益诉 讼范围。启动主体资格层面,因为我国现行程序 诉讼法未赋予公民公益诉讼的原告资格,且权力 下放可能导致滥诉,故将启动主体限定为法定机 关、有关社会组织和检察院,同时结合《 中华人 民共和国网络安全法》《 中华人民共和国数据安 全法》《 中华人民共和国电子商务法 》等单行法, 将算法歧视公益诉讼的启动主体及“辖区 ”判定 标准具体化、标准化。算法歧视公益诉讼的诉前 程序应采取公益行政公益诉讼诉前程序优位,给 予行政机关更多自主权,从而实现经济、效率和 尊重。
\

  五 、结语

  在算法日益涉足人类决策尤其是司法决策的 时代,尽快建立相应法律责任机制,预防、削弱或 杜绝算法歧视乃当务之急。本文从程序法规制视 角出发,从算前歧视、算中歧视、算后歧视三个阶 段总结规制困境,提出伦理审计与公平性约束、 涉密证据保护与算法解释度、设立庭前会议、认 定责任主体、拟行公益诉讼等路径,在司法实践 中构建更加具体可行的应对措施,避免算法成为 异化的决策体系,让公平公正照进虚拟,实现科 技进步与平等权保护的平衡。

  参考文献

  [1] 刘友华.算法偏见及其规制路径研究[J].法学杂志,2019.40(6):55-66.
  [2] CAMICHAEL L,STALLA -BOURDILLON S,STAAB S.Data Mining and Automated Discrimina- tion:A Mixed Legal/Technical Perspective[J].IEEE Intelligent Systems,2016.31(6):51-55.
  [3] 孙清白.人工智能算法的“公共性”应用风险及其二元规制[J].行政法学研究,2020(4):58-66.
 
关注SCI论文创作发表,寻求SCI论文修改润色、SCI论文代发表等服务支撑,请锁定SCI论文网!

文章出自SCI论文网转载请注明出处:https://www.lunwensci.com/falvlunwen/65295.html

发表评论

Sci论文网 - Sci论文发表 - Sci论文修改润色 - Sci论文期刊 - Sci论文代发
Copyright © Sci论文网 版权所有 | SCI论文网手机版 | 鄂ICP备2022005580号-2 | 网站地图xml | 百度地图xml