SCI论文(www.lunwensci.com):
摘要:随着信息技术的进一步发展,人类社会已经进入以大数据、人工智能、云计算、物联网 等为基本元素的智慧时代。现阶段的人工智能仍处于为人类服务的“ 工具 ”阶段,大数据是人工 智能发展的前提条件,其会为实现特定功能,收集、整理、分析个人信息,其中难免会涉及个人隐 私。在考虑人工智能发展的情况下,通过明确隐私权的主体权利,赋予其一定的积极性,将人工智 能通过处理碎片化信息所了解、掌握的个人信息纳入隐私保护范畴,有助于缓解隐私权保护与人 工智能发展之间的矛盾。在法律层面,强制人工智能进行伦理学习,弥补法律调整的滞后性,构建 人与人工智能和谐共处的局面。
关键词:人工智能,人格权,隐私权
一、导言
人工智能(Artificial Intelligence,简称 AI), 它是研究、开发用于模拟、延伸和扩展人的智能 的理论、方法、技术及应用系统的一门新的技术 科学。[1]钟义信教授曾指出,人工智能是指人类 所制造的智能。人工智能在自动驾驶、语音交互 等方面服务人类。一般以人工智能的智力能力 高低为标准,将其分为弱人工智能、强人工智能 (又称“ 通用人工智能 ”)、超强人工智能。弱人 工智能,一般指在单个方面模仿或拓展人的智力 或能力的人工智能;强人工智能,指在各个方面 能和人比肩的人工智能;超强人工智能,指具有 超越人类智能的人工智能。前述分类不仅是对人 工智能的一般性的分类,也是对人工智能的发展 规律的一般性规律概述。[2]
鉴于经济发展的需要,在超强人工智能实现 前的人工智能,对于人类来说均只是“ 工具 ”,其 因人的需求而生,也以人的需求为发展导向。人 类用其来代替或拓展人的智能,以服务人类社会 发展。当前人工智能的发展尚停留在弱人工智能 阶段。2022 年 6 月,美国谷歌公司软件工程师布莱 克·勒莫因(Blake Lemoine)称语言模型 LaMDA 已出现自我意识,表明人工智能的发展已有向强 人工智能发展的趋势。[3]
弱人工智能、强人工智能,以大数据、大模 型为驱动,以特定的算法实现其功能,部分人工 智能还具备学习能力。在服务人类的前提下,收集、处理个人信息是必然的。其可以通过人类的 碎片化信息,计算、推导出碎片信息对应的个人 的其他信息。以购物 APP 为例,其可以通过数据 对象的浏览记录分析出数据对象的购物需求,并 以此为切入点,推断出数据对象包括处于孕期、 哺乳期、生理期等个人隐私信息。我们也常可见 各类 APP 开屏或其他广告中看到我们近期关注的 购物信息。可以说在万物互联、大数据、人工智能 三者并存的情况下 ,人类没有隐私可言。
隐私权作为一项人格权,对于它的保护程 度,是一个社会文明程度的重要标志,最早由美 国法学家萨缪尔·D· 沃伦(Samuel D .Warren) 和路易斯·D·布兰迪斯(Louis D .Brandeis)在 1890 年提出。[4]在人工智能尚处于为人类服务的 阶段,人工智能的发展与隐私保护之间存在必然 的矛盾关系。一方面,不能为发展人工智能而牺 牲隐私权;另一方面,更不能使隐私权的保护成 为人工智能发展的障碍。在现在的立法中,多将 隐私权规定为消极的绝对权利,只能给予被动保 护。在人工智能发展与个人隐私必然产生关联的 情况下,理顺二者关系,构建人与人工智能的和 谐体系,有利于人工智能的发展,也回应人们对 隐私权保护的关切。
在超人工智能出现前,隐私权的法律调整仅 会停留在人工智能设计者、管理者与隐私权权利 人之间,因人工智能的“ 工具 ”属性,不会涉及 人工智能本身。当超人工智能出现后,其可能会摆脱“ 工具 ”的价值,独立创造价值,以自己的 意识来思考其与人类的关系,其与同类主体之间 的关系。可能出现类似于科幻游戏《底特律:变 人 》中仿生人欲争取独立、构建自主社会体系, 甚至消灭人类的情形。因此,超人工智能不在本 文的讨论之内。法律的保护是单一的,在人工智 能已有向强人工智能发展的趋势下,且人工智能 已具备学习能力的情况下,也应加强人工智能本 身的伦理学习,在法律之外,为人工智能画下一 条道德底线。
二 、智慧时代背景下的人工智能对隐私权的 影响
智慧时代下,万物互联,各类信息交互愈加 频繁,人工智能与隐私权相关问题的研究也是前 沿课题,笔者在中国知网检索“ 人工智能 ”“法 学 ”词条,显示一年内各类研究文章数达468 篇,有的高校已经建立或着手建立“ 人工智能法学 ” 学科。在各专家学者已有大量著作论述的情况下,笔者认为智慧时代背景下,人工智能对于隐私权 的影响主要包括人工智能发展与隐私权保护之间 存在矛盾关系;人工智能使隐私权保护对象进一 步模糊;人工智能发展的不确定性,挑战着人类 隐私权法律制度保护等三个方面。
( 一 )智慧时代背景下,人工智能发展与隐私 权保护的矛盾关系
在当前智慧时代背景下,人与人之间的社交 活动弱化,取而代之的是人与人在网络上的交流 与沟通。在人类已离不开网络、万物互联、云存储 技术的不断发展下,人们习惯于将包括隐私在内 的个人信息存储于网络空间,有的隐私性信息直 接产生于网络 。一定程度上说 ,数据即隐私。
人工智能的发展需要以大模型、大数据为驱 动力,是作为人的“ 工具 ”,也以人的需要为发展 动力。以垃圾邮件过滤器为例,人工智能如需为 客户提供良好的服务,必须收集整理用户的包括 但不限于阅读习惯、以往邮件、接收文件内容等 信息在内的信息,还需要将其与其他用户邮件信 息进行比对。如用户拒绝提供信息比对,其就无 法判定文件是否为垃圾文件,阻碍其发展。其欲 发展,强行收集的,又会侵犯用户隐私。二者之间 存在发展与保护的矛盾。
人工智能与隐私权之间发展与保护的矛盾, 主要体现在非法监控与非法干扰个人行为方面。[5] 非法监控包括对物理空间的监控,也包括对网络 空间的监控,其根本目的均是要获取其发展需要 但个人未公开的信息。在超人工智能出现前,人 工智能尚不足以干扰个人的全部行为,仅能干扰人类决策。
( 二 )智慧时代背景下,人工智能利用个人碎 片信息进行人物画像,间接了解、掌握个人隐私 的法律认定
同样以购物 APP 为例,其为达到一定的商业 目的,会收集用户的检索数据、购物信息等信息 内容,通过其算法,判断特定用户在某一时间段 内的购物需求,从而了解到用户在此时间段内包 括孕期、生理期等在内的个人信息,进而有针对 性进行广告推送。此种通过用户碎片化信息对用 户进行人物画像,进而间接了解、掌握用户相关 隐私信息的行为,是否构成对用户的隐私权侵犯 , 在我国现行立法上 ,尚无法认定。
纵观我国立法,《 中华人民共和国民法典》(以 下简称《 民法典》)、《 中华人民共和国个人信 息保护法》(以下简称《个人信息保护法》) 中 对于碎片化、个人已经公开的个人信息仅经授权 或为公共目的合理使用进行规定,但通过前述信 息进行人物画像,间接了解、掌握用户隐私信息 的行为是做隐私权保护,还是做个人信息保护 规定不明。根据《 民法典》第一千零三十二条、 第一千零三十三条之规定,隐私权的一般侵权 行为一般包括刺探、侵扰、泄露、公开、拍摄、 窥视、窃听、拍摄等,并不能将前述行为涵盖 在内。如以《 民法典》第一千零三十三条第一款 第六项规定的其他方式来概括,其又是在个人信 息合理使用下的结果。如根据《 民法典》第一千 零三十四条及《个人信息保护法》的规定又很难 认定,其了解、掌握用户的信息是过度处理个人 信息。
此外,个人信息与隐私存在差异,公开的个 人隐私可以被称为个人信息,但通过碎片化信息 了解、掌握的,个人不愿意,也从未公开的信息, 又能否称为“ 个人信息 ”? 是否在个人信息保护 的范围内? 仍值得进一步商榷。
(三 )法律保护手段不足以应对人工智能发展 存在的风险
在人工智能已经具备学习能力,向强人工智 能发展的趋势下,未来人工智能可能发展到超人 工智能,人工智能会进一步发展到人类或超越人 类智慧的程度。如前,在超人工智能出现前,人 类的法律只能调整其设计者、管理者与个人权利 主体,不涉及人工智能本身。但强人工智能与超 强人工智能的界限在哪里? 人工智能何时觉醒 为“ 人 ”? 人工智能是否认可人类的价值体系? 这些我们尚不清楚,但可以意识到的是,单纯 的人类法律体系不足以避免类似于《底特律:变人 》① 中出现的人工智能欲求独立,消灭人类等情 形。更直接且具有现实意义的做法是,在法律层 面强制人工智能进行伦理学习,使其认同人类的 价值观 ,尊重人类包括隐私权在内的权利。
三 、智慧时代背景下的隐私权保护
( 一 )明确隐私权的主体权利,赋予其一定的 积极性
目前对于隐私权保护的通行做法是将其作为 消极的绝对权进行保护,在权利维护上,权利主 体不具有主动性,只能在权利受到侵害的时候维 护权利。[6]在普通个人对于人工智能的认识尚处 于“ 黑箱 ”的情况下,明确隐私权的主体权利, 赋予其一定的积极性,使权利主体能够主动维护 隐私权利,防范人工智能的非法、过度收集,具有 重大意义。
隐私权的冲突体现在非法监控和非法干扰个 人行为方面。[7] 为协调二者冲突,隐私权的主体 权利中至少应当包括知情权、数据所有权、数据 一次性使用权。知情权层面,要求权利主体对于 人工智能对于其信息收集、整理、分析、保存等 享有知情权并同意其进行前述行为。同时,人工 智能在运行时,对于可能侵犯权利人的隐私权的 相关内容,应主动告知权利人并取得其同意;数 据所有权层面,要求将权利主体的信息以所有权 的形式予以保护,人工智能在进行处理时,必须 征得权利人同意;一次性使用权层面,要求人工 智能在处理完毕权利人信息后,自动删除相关信 息,仅限于一次性使用,尽量减轻对权利人的隐 私权的侵犯 ,也防止信息的二次或多次泄露。
( 二)将人工智能通过碎片化信息分析出个人 隐私的行为纳入隐私权保护范围
张新宝教授认为,隐私权一般是指公民享有 的私人生活安宁与私人信息依法受到保护,不被 他人非法侵扰、知悉、搜集、利用和公开等的一种 人格权。一般包括隐私隐瞒权、隐私利用权、隐私 支配权、隐私维护权。
人工智能通过碎片化信息对个人进行人物画 像,其碎片化信息的处理可能是合法获取,但以 此为基础获取的,个人未授权且不愿透露的信息 本质上也应属于隐私。首先,隐私权的核心,在于 “ 不愿为他人所知 ”,通过合理使用获取的信息, 只要是个人不愿意透露的信息就是隐私,是隐私 权中隐私隐瞒权的体现;其次,人工智能通过碎 片化信息对个人进行人物画像从而了解、掌握的个人隐私,在获取上不是权利人的授权、允许的 内容,违背了权利人的意愿。在权利人未发现,人 工智能也未告知情况下,侵害了权利人隐私利用 权、隐私支配权、隐私维护权。
需要特别说明的是,纳入隐私权保护与是否 应承担侵权责任,应区别看待。对于个人已经授 权人工智能使用个人碎片化信息,人工智能在合 理范围内运用必然推导出权利人隐私,且其未对 外泄露或做他用的行为 ,不应承担侵权责任。
(三 )强制伦理学习
如前,法律的救济仅是事后救济。在人工智 能发展周期不明、程度不定的情况下,人类的法 律仅能约束人工智能的设计者、管理者,不能约 束人工智能本身。在人工智能与人类频繁交互, 人工智能频繁获取人类信息的情况下,在人工智 能已经具备学习能力,并向强人工智能发展的趋 势下,在法律层面上强制人工智能进行伦理学习, 使其具备人类的一般性伦理知识,充分尊重人类 包括隐私权在内的权利,从其自身开始约束自己 的行为。在超人工智能出现前,构建一套彼此认 可的伦理体系,有利于弥补人类法律调整的缺陷。
四 、结语
人工智能的发展是智慧时代的重要组成,也 是智慧时代的必然要求。其因人的需求而生,也 以人的需求为发展导向。在其发展中,以大数据为 前提,积极协调其与个人权利之间的关系,有利于 回应人类对人工智能发展的担忧,也可协调隐私 权保护与人工智能、智慧时代发展的矛盾关系。
参考文献
[1] 王利平.人工智能背景下的隐私权规制[J].网络安 全技术与应用,2022(8):124-126 .
[2] 李传军.人工智能发展中的伦理问题探究[J].湖南 行政学院学报,2021(6):38-48 .
[3] 王庭琪.人工智能时代隐私权保护的困境与策略 [J].长春市委党校学报,2021(4):37-40 .
[4] 郑妮.人工智能法学的概念误区、理论明鉴及空间 重塑[J].理论月刊,2021(6):105-115 .
[5] 黄莹.人工智能时代隐私权保护问题研究[J].文化 创新比较研究,2020,4(12):86-87 .
[6] 卢玉喆.人工智能对民法制度的影响探析[J].芜湖 职业技术学院学报,2019,21(1):61-63,71 .
[7] 李宏涛.人工智能对法律主体及隐私权的影响[C] // 中国教育发展战略学会教育教学创新专业委员 会.2019 全国教育教学创新与发展高端论坛论文 集(卷一).北京:中国教育发展战略学会教育教学 创新专业委员会,2019:431-433 .
关注SCI论文创作发表,寻求SCI论文修改润色、SCI论文代发表等服务支撑,请锁定SCI论文网!
文章出自SCI论文网转载请注明出处:https://www.lunwensci.com/falvlunwen/76767.html