SCI论文(www.lunwensci.com)
摘要 :随着移动电子终端前所未有的普及和大数据时代的到来,算法扮演着举足轻重的角色,影响人们生活的方方面面。算法技术的普及大大提高资源分配的公正度和合理性,使得物尽其用,人尽其能;同时,算法歧视、算法黑箱、大数据杀熟、信息茧房等算法技术的不合理应用, 为法律如何进行规制带来挑战。
关键词:算法侵权,法律规制, 算法公开
一 、问题的提出
随着移动电子终端前所未有的普及和大数据 时代的到来,算法技术异军突起,依托海量内容, 多元用户和不同场景的核心数据,成为现代数字经济社会发展的动力引擎。一方面,算法技术通过海量数据分析和自我纠错功能,对过去的行为轨迹进行分析,预测将来的行为,实现精准匹配,大幅提高资源分配的公正度和合理性;另一方面,算法技术通过海量数据获取,交叉对比数据和还原 敏感数据,蚕食个人隐私空间,进行人格画像,从而精准营销和价格歧视,具有剥夺人类自决权和 侵害隐私权之虞。本文旨在通过梳理算法技术侵权的外在表现形式,探讨现阶段算法侵权风险下数字用户权益保护的路径,以期对算法治理的困 境进行回应。
二、算法技术侵权之表象 —— 侵害公民权益
算法“是一系列解决问题的指令,一旦输入初始指令,就会自动运算、输出相应的结果 ”。 算法通过存储于计算机中的代码和程式,构建起虚拟空间的运行规则,也就是所谓的“代码即法 律 ”。从算法设计者的角度,算法是解决问题的手段;从社会一般人的角度,算法是网络世界的“法 律 ”。只不过这种“法律 ”并不是基于全体人民的共同意志,它体现的只是掌握算法技术的数字企业的个体意志和私人利益。法律规范由立法机关 制定,体现全体人民的民主协商性,而算法自动化决策的技术特征以及互联网企业的强势地位破坏 了这一民主价值,以利益最大化为目标的商业主体在算法技术领域中亦贯彻“零和博弈”, 罔顾算法使用者基本的权益。算法技术在逐步成为“政 府 ”“市场 ”以外的“第三只手 ”影响社会公共领域,其以算法歧视侵蚀用户主体实质平等,以算法自动关联暴露用户主体隐私数据,以算法自动化决策挤压用户主体个人意志。[1]
( 一 ) 算法技术损害实质平等
算法技术损害实质平等。法律规范是社会公平正义的最后一道防线。一方面,法律规范的公平正义价值体现于法律规范的普适性和一般性, 即全体人民都应当以法律作为基本行为规范,法 律面前人人平等,任何人都不得有超越宪法和法律的特权;另一方面,法律还体现矫正正义价值, 如法律通过对特定场景下相对处于弱势地位的群 体倾斜式保护,进而实现实质意义上的平等。而算法技术的运行模式则试图为每一个用户量身打造 数字行为规范,建构起一个对不同用户群体加以 区别对待的数字规范领域,在其运转过程中刻意 忽略人类主观能动性发挥的作用,暗含对数字化 用户主体人格尊严的侵害,且该风险隐蔽在技术 中立和科学理性的假象当中。例如,在劳动法领 域,外卖应用程序通过对配送员的配送时间,配送 距离,配送单量进行数据分析,并将交通、环境、 地点、天气等因素纳入计算,通过不断压缩配送员 的截止时间,使其不断挑战配送速度极限,进而外卖行业交通事故率高居不下。劳动者受制于算 法的调度,被迫成为全天候待命的“工具 ”。掌握 算法技术的大型企业为追求经济目标,剥夺劳动者的自主权,罔顾劳动者的基本权利,攫取劳动者的剩余价值,通过掠夺原本处于弱势地位的劳动者的价值以成就企业经济的飞跃,进一步加剧社会分化。算法的技术性特征与传统社会观念、法律原则产生了多重背离,如算法个别规则与法律一般性、普适性原则的背离,算法自动关联和监控功能与传统公私领域边界原则的背离,以及算法自动决策与协商性原则、自愿原则等的背离。[2]
( 二 ) 算法技术蚕食公民隐私空间
算法设计者打造的“数据化监控网络 ”加剧 了公民隐私权被侵害的风险。算法技术即根植于数据分析,其土壤为无所不包的公民个人信息, 包括传统的公民个人信息,例如姓名、年龄、性 别、民族、职业、经济状况、家庭住址等,以及随 着互联网技术的普及应运而生的个人隐私信息, 例如网络浏览记录、购物偏好、人际交往关系谱、 定位记录等。网络服务提供者不当攫取用户网络 数据,公民个人隐私前所未有地暴露在公众视野 中。随着算法技术的智能化,隐私泄露的风险不仅 仅发生在数据收集阶段,而且进一步走向数据分 析阶段。这就意味着之前未被披露在网络数据的 信息,通过深度学习算法对已有数据进行分析整 合、数据建模,进而被推理、预测、暴露在网络世 界。如美国研究者曾经对 F 公司志愿者用户进行 实验,通过对种族、智力、宗教、父母离异、性格 等数据进行数据建模,自动化算法在未获取志愿 者其他信息的情况下,可以准确预测出该用户是 否为同性恋。算法侵权的法律风险高发于互联网 领域,当下的互联网平台因海量用户使用、点击、 浏览产生大量数据,通过信息分析整合,间接预测 和影响公民未来的行为,攫取商业利润,进而控制 市场,形成单项的监视资本主义。
强大的算力以及自动化决策的隐蔽性,也使 政府影响和操纵民意成为可能。行政机关依靠算 法、算力和数据三管齐下,精准监控个人行为。 如 2013 年棱镜门事件,以算法科技进行全方位监 控的幕后机构浮出水面,可怕的不仅是美国对国 内外的监控和窃听行为,更是美国国家安全局与 部分掌握算法的高科技公司模糊的合作关系,也 就是说公权力利用算法将权力大肆扩张,侵犯公 民隐私权乃至世界网络安全。人们在享受人工智 能所带来的快捷服务时,悚然发现自己一直在互 联网的监控下“裸奔 ”。[3] 又如骇人听闻的某桥分 析事件:根据英国某桥分析公司员工 C 某透漏, 该公司利用“ 网络爬虫技术 ”获取 8000 多万网站 用户数据,包括用户的浏览痕迹、行为轨迹、政治 倾向,教育背景,通过对海量数据分析,并且进一 步自我学习和自我纠错,形成“人格画像 ”,精准 投放具有政治倾向性的“新闻”, 左右公众政治选择,干扰美国总统大选。
( 三 ) 算法技术侵害公民自决权
掌握算法的大型资本企业,利用其技术优势 与应用优势形成的强势地位乃至于垄断地位,向算法相对人提供电子合同,以便获取相关授权许 可,但该类协议往往流于形式上的协商。算法利用 其市场优势与技术优势,设定若拒绝签署相关授 权协议,则无法使用应用程序的机制,逼迫数字用 户让步。首先,数字用户若不“ 同意 ”该协议, 将无法正常使用应用程序,而数字用户为了不自 我隔绝于数字网络之外,只能无条件接收由运营商未经协商、事先拟定的电子协议;其次,该类型电子协议往往被设计得过于冗长和复杂,乃至于即使通篇阅读该协议社会一般人也未必能理解该 法律术语背后的意义,这就导致多数用户未经阅 读便不假思索地点击“ 同意 ”;最后,该类型协议 即使事后出现不合理地免除其责任,加重对方责任,排除对方主要的权利等“霸王条款 ”, 维权行为发生在势单力薄的普通用户与互联网龙头企业之间,其经济实力、舆论影响、社会资源相差巨大,往往使个体数字用户的维权之路举步维艰。
三、算法权力治理路径之构建
( 一 ) 技术发展与权益保护相平衡
立法机关在制定法律规范时,应当综合考虑 平衡各种利益之间的冲突,确定不同法益在不同 场景中的优先顺位,同时,具体情况具体分析,在 个案适用时结合自由裁量权达到具体案件中各种 利益的平衡保护。同样,在算法治理领域,算法设 计者制作程序,进而为网站创造巨额商业利润,算 法技术理应成为具有智力成果属性的商业秘密, 若“一刀切 ”地强制商业主体公开算法,无疑会 使其丧失技术竞争优势。算法治理应平衡公民个 人权益保护和算法技术发展,基于此,公民个人权益保护是横亘于算法技术发展始终的“达摩克利 斯之剑 ”,反之,公民个人权益也并非具有无限扩 张的特权,其同样不得僭越算法技术平台对于商 业秘密的保护。
有鉴于此,算法的公开不应当也不可能是绝 对公开,只能相对公开。当行政管理主体使用算法 进行公共事务管理决策或辅助决策,算法技术实 际影响着社会公众,而公开算法又不涉及侵犯商 业秘密,行政主体应当尽量采取社会一般人所能 理解的方式公开与解释算法。但是,对于纯粹商业 性的数字企业所使用的算法,一般不应当强制要 求其公开。按照法律无效规则,对掌握算法技术 的纯粹商业性数字企业若“一刀切 ”地采取全面 披露规则,将导致承担企业“造血功能 ”的算法 技术暴露在公众视野之下,使得意图实施侵权者 只需承担较轻的不利后果,使得窃取他人智慧结 晶,以攫取巨额商业利润的行为有可乘之机,变相 鼓励企业知识产权侵权“搭便车”, 不利于营造良好的营商环境和维持稳定的社会秩序。营利性商 业主体应适用算法分级分类安全管理制度,即对 于不同社会影响力、服务对象、经营领域的商业主 体加以区分,采用不同的披露方式、范围、程度。
( 二 ) 内部监管与外部监管相补充
算法侵权往往发生在互联网技术龙头企业 与势单力薄的普通用户个人之间,算法环境下的 “马太效应”, 使得受害者需要付出大量时间、精 力和经济成本,以确定冗长的信息流转环节中具 体的侵权主体,调查取证数据处理过程中侵权行 为的发生,以及证明侵权行为与损害结果之间的 因果关系。成本与获益远远不匹配,将导致受害者 用户群体压倒性地倾斜于放弃维权,无形中造成 公民权益被侵害而无救济的局面。如果监管者无 法进入算法内部进行审查,就无法了解造成危害 后果的技术原因,难以提出切实有效的算法整改 方案,只能在结果端予以形式上的审查,难以对平台起到实质性的内部规制作用。[4]
算法技术监管,其涉及专业技术知识,呈现 纵向拓展之势,使得承担监管角色的门槛大幅提 高。考虑到个人信息主体理解算法的可能和成本, 若对个人信息主体附加额外的学习负担,而并非经济、便捷、合理的权利救济途径,同时也杜绝了正常理性人选择维权的可能性。因此在政府监管 和公众监管的同时,理应引入专业、中立的第三 方监管机构介入算法治理。算法技术通常是高新 科技企业的经济命脉,处于“重量级 ”商业秘密 保护的行列。因此,第三方监督机构人员严格的遴选制度,不仅应当具备相应的专业知识,还应对第三方监管机构人员进行入职前的职业培训,使其遵守职业规范,具备职业道德,严格遵守商业秘 密。算法权力监督主体,还可以是中立第三方行业协会、具有专业素质的第三方机构甚至算法技术 自身。
( 三 ) 算法公开与有限披露并重
算法权力崛起带来最大的挑战即来源于“算 法黑箱 ”。“ 黑箱 ”是控制论中的概念,指的是不 能从外部所感知其内部状态的系统,同理,普通民 众对于算法技术对个体的影响无从知晓,算法技 术的设计者不提供任何解释,不接受质询,不对算 法相对人提供救济路径。从当前所使用的主流算 法技术来看,即使公布算法技术的所有代码与程 式,由于算法技术的专业属性,普通民众无法理解 算法如何进行决策,进而对个体施加影响。算法的 源代码具备复杂性、迭代性,信息技术行业的发展 呈现指数规模而非线性规模的爆炸式增长态势,同样,算法技术更新迭代的速度以指数级增长, 一方面,算法技术通过平台应用不断深入嵌入社 会公共领域,另一方面,算法技术与普通大众之间 存在无法跨越的“专业壁垒”, 即使算法技术全面 公开也难逃“无效信息 ”的劫难。因此,算法设计 者、控制者不仅应当向用户群体提供影响最终结 果的重要因素或事实,而且,应当以社会公众所能 理解的方式解释算法。
任何算法设计者都有义务向用户公开算法运 行的逻辑,允许用户知悉算法如何对社会公共领 域以及个人生活领域施加影响,设立及时接收用 户意见的信息渠道,保证关于算法运用过程随时 接受社会公众的监督和质询。普通民众虽非评估 主体,然而民众往往是有效的监督主体,数字企 业与数字用户应建立交流渠道,建立有效的申诉 救济机制,缩小“算法黑箱 ”所带来的“信息鸿 沟 ”,使算法技术能够及时改正。算法控制者通过 发布责任报告接受社会公众的监督,向社会公众 公布算法对个人生活施加的影响,不仅是保护公 民基本权利的基本要求,也是算法治理的应有之义,对逃避保护个人信息义务的平台或机构,应建 立相应的制度,限制其经营范围、服务对象、商业 领域,倒逼个人信息处理者恪守诚实信用原则,严 守公民基本权利边界,积极履行社会义务。
四 、结语
算法技术正在广泛渗透于社会公私领域,从新闻投放到智慧城市,从职场背调到生活购物,从投资理财到交通出行,当算法技术和平台应用相结合,并不断渗透和影响我们的日常生活,看似理性和中立的算法技术,暗含“算法歧视 ”“信 息茧房 ”“算法操纵 ”“算法黑箱 ”等技术风险。 面对算法技术崛起带来的重重挑战,我们首先应 当保持包容和理性的态度给算法技术的发展留下足够的空间,同时也要保持谨慎和理智的态度分析算法技术带来的风险,参考和借鉴算法治理经验,为我国建设有效的算法治理框架做出有益的探索。
参考文献
[1] 李牧翰.算法侵权风险下数字用户权益保护法律问题分析[J].大连理工大学学报(社会科学版), 2022.43(2):81-87.
[2] 林洹民.个人对抗商业自动决策算法的私权设计[J].清华法学,2020.14(4):125-139.
[3] 赵一丁,陈亮.算法权力异化及法律规制[J].云南社会科学,2021(5):123-132.
[4] 唐亦可.论人工智能时代算法的法律规制[J].时代法学,2022.20(2):99-106.
关注SCI论文创作发表,寻求SCI论文修改润色、SCI论文代发表等服务支撑,请锁定SCI论文网!
文章出自SCI论文网转载请注明出处:https://www.lunwensci.com/falvlunwen/58639.html