智能传播下隐私权关系构成要素展开

时间:2022-11-10 10:05:10

摘要:智能传播环境下,个性化信息服务离不开算法对数据的持续性分析与整合,这表明包含隐私的数据可利用工具性价值被凸显,隐私不仅承载人格权利,还将衍生财产权益。因此,隐私面临的风险问题,本质根源在于传统隐私权法律关系构成要素发生改变,缺少新型权益架构制定。

智能传播下隐私权关系构成要素展开

民事法律关系是指“发生在平等主体之间,由民事法律规范调整而形成的以权利义务为内容的社会关系,是民法所调整的平等主体之间的财产关系和人身关系在法律上的表现。”①民事法律关系主要由主体、客体和内容三个要素构成,且通常情况下一经形成三者关系不会改变。然而,随着智能技术在传播场域中以几何乘数铺开,属于民法保护范畴的隐私权法律关系构成要素正发生深刻的嬗变,亟待基于隐私权法律关系构成要素的变化,构建更具针对性的隐私权长效保护机制。

一、持续性不平等信息关系中的权利主体和义务主体

(一)理性选择被削弱的权利主体

我国学术研究和立法实践普遍认为隐私权的权利主体为自然人,不包括法人和非法人组织。在智能传播与隐私权保护冲突的理想情境中,权利主体既可以最大程度地避免他人非法侵扰,又能够主动控制和利用这一权利。简言之,权利主体能够作为理性选择的主体独自判断隐私边界。智能传播环境下,持续性不平等信息关系削弱权利主体的理性选择。一是智能传播平台自动化算法决策服务不断消解权利主体理性意识。随着智能技术发展,平台成为信息资源的提供者和代理者,通过算法塑造的权利主体世界,凭借数据分析驱动生活全场域达致权利主体多元需求的专属服务。而差异化、个性化与精准化服务使得权利主体沉浸在智能技术编织的环境中,过分依赖自动化算法决策的结果指向。这种由智能传播平台计算过、修饰过的结果使权利主体难以独立分辨和还原事实与真相,倒逼其逐渐趋向算法奴役,消解权利主体理应具备的判断意识和能力;二是智能传播平台利用技术鸿沟和信任关系阻碍权利主体自主选择意识。囿于权利主体对技术的掌握程度和信息的拥有程度远低于智能传播平台,将持续造就和扩大双方信息落差。单方掌控减少处理时间并降低流转难度之集成的智能传播平台,不仅不会告知权利主体数据存储方式、安保状况与具体运作详情,还利用权利主体对己方的信任与技术劣势以及不健全的“避风港规则”等在格式合同规避数据责任。隐私政策的单方面制定与强制同意也就意味着权利主体的选择同意权被削弱,没有自主能力熟知和决定隐私信息的运转状况,无法突破看似有形的无形藩篱。

(二)信息处理专业性的义务主体

隐私权义务主体(可能侵犯隐私权的主体)是指权利主体以外其他所有自然人、法人和非法人组织。这些义务主体负有对权利主体隐私不可侵犯的义务,如不得以刺探、侵扰、泄露、公开等方式侵害权利主体的隐私权。“从法律权利与法律制度的设计来说,隐私权是一种对世权,其效力及于一切人。即使某些主体或某些场景下的个人隐私权利会受到限缩,但此类限缩也被认为是例外情形,不妨碍隐私权整体上作为对世权的属性。”②简单地说,义务主体是指除权利主体以外的任何人。隐私对于权利主体与义务主体都具有重要价值,如何纾解双方之间的张力,增强权利主体对义务主体信息利用和隐私保护的信任程度和掌控力度,以保障信息更好地共享与流动并防止元数据资源池的萎缩是双方共同关注的重点。所以,智能传播平台需要在提供信息服务前履行告知与许可义务,通过拟定相关隐私政策,使权利主体知悉和同意平台对数据的搜集和加工。此时,权利主体所拥有的知情权、访问权、删除权等已经不再针对不特定第三人,而是针对具有商业性和专业性搜集、分析和重构个人信息的智能传播平台。当智能传播平台成为新义务主体后,将持续加剧双方的不平等信息关系。一是这种作为类似维基百科的信息共建共享系统的智能机器平台,只要存储空间足够大,即可无限地存储信息。而人脑空间有限,这将导致双方存在不平等的信息储备关系;二是“对于数据工具而言,‘数据’是核心驱动力,如果没有充足的数据积累,没有内容比较精准的结构化数据,数据工具在进行数据处理或分析时就很难得出科学的分析结果。”③因此,智能传播平台数据工具的精准使用和挖掘活动的顺利开展需要占有并长期保持大量元数据资源池,并依托不断训练优化元数据的神经网络算法对数据进行排列重组,实现描摹权利主体画像与信息内容服务的提升。大数据意味着高利润,智能传播平台通过持续商业性和专业性信息处理释放盈利潜能并创造衍生价值,却借口安全需要和隐私保障等长期独占使用所辖平台的、权利主体无法免费获取的海量数据,严重阻碍了信息资源的纵横双向自主传承,加剧持续性不平等的信息增益关系。

二、扩张化的权利客体

隐私权客体为隐私,主要围绕“‘是否公开揭露与私人有关的事实/信息’和‘是否对于独处的干涉’两个议题展开,前者从信息维度探讨隐私的呈现方式;后者则从空间维度揭示隐私所成立的空间性质。”④换言之,传统隐私包括信息和空间两部分。目前看来,智能技术正使隐私权客体呈现向外扩张趋势。

(一)隐私外溢

通常认为,隐私是指那些与特定个体相关联、反映个体特征具有可识别的符号和标识。随着智能技术发展与成熟,私人信息逐步由静态趋向流动,个体隐私逐步由稳定转为波动。私人信息不仅包括可识别到的个人静态符码,还包括智能传播技术重构后可间接识别到的个人动态信息。智能传播平台基于权利主体海量点击、转发和评论等持续变化的结构化和非结构化行为数据的交叉聚类挖掘,将导致信息流动中的流变隐私不断呈现外溢现象。例如,权利主体主动将自己置身于智能传播平台中,不仅能够看到其他人,而且自己也能够被他人所观看,通过彼此之间的交流与互动,与平台其他权利主体产生共振效应。而智能传播场景中,权利主体有意无意、主动被动披露的巨量内容中所包含的隐私信息也在受众猎奇心理驱使下更易成为窥视焦点,并罔顾隐私保护规则持续发酵。与此同时,关涉隐私的内容往往更易被智能传播平台处理与重构,隐私被动性让渡面临泄露或滥用风险。又如,智能传播环境下,掌握技术和资源优势的智能传播平台基于零散的、看似无关紧要简单信息的弱关联再处理、微化模式识别、复杂关联算法等集成技术将诸多相关数据整合、归纳与整理,分析出隐含此前未知的、有潜在价值的信息,很有可能间接暴露权利主体的隐私信息和行为轨迹。信息累积与隐私保障之间呈现负相关效应,各式隐私外溢现象的发生也使得大量权利主体不断意识到虚拟空间中自由领域的逐步缩减,并因畏惧隐私泄露而逐步背离数字生活,导致数据库萎缩,阻碍智能传播体系的健康发展。

(二)模糊的二元空间界限

二元空间指公共空间与私人空间,并随着网络技术的出现转变为实体空间与虚拟空间。当下,智能技术的赋能与加持也在不断模糊传统二元空间的界限。一是现实空间和虚拟空间界限模糊。人工智能技术的出现,打破实体社会空间与虚拟社会空间的屏障,即时穿越在两个空间的各个系统中,塑造了“完全沉浸”与“远程在场”的传播景观。无论是完全沉浸还是远程在场,都围绕技术和人类而展开,虚拟现实技术和增强现实技术在人类与世界的交流中,起到了场域的作用。但当人们完全沉浸在其中时,已经忽略或忘记技术的存在,完全感受场景带来的主观体验。技术与人类的持续互动,致使人们已经难以辨认直观感受的来源究竟是现实空间还是虚拟空间。究其原由是当前智能技术不断模糊现实空间与虚拟空间界限,推动两个独立空间逐渐呈现为相互融合的趋势;二是公共空间和私人空间界限模糊。网络媒介发展后,出现新的私人空间,即电子空间,这一空间也享有不被他人非法侵入的权利。从法律角度来说,他人如要进入网络空间需要得到权利主体授权,否则即为非法闯入。但采用黑客技术可以轻松进入个人QQ空间、微信朋友圈、电子邮箱等,探窥他人聊天、邮件内容,盗取他人隐私信息,这将直接侵害权利主体的隐私权。还有一些网络服务商在权利主体完全不知情的情况下,利用网络技术搜集其信息,用于商业用途,侵害权利主体的隐私权。换言之,网络技术和智能技术出现以后,侵害隐私权方式更具智能性和迷惑性,虽然其侵权后果非常严重,但准确追踪侵权人及相关侵权责任认定等问题亦难以解决。

三、数字化人格及其财产属性

隐私权法律关系内容是一种被动性的人格权利,从本质上说,隐私权价值在于保护权利主体的人格尊严和自由不受他人操纵与支配。智能技术加持下的数字化人格具有巨大市场利用价值,所以权利主体的隐私信息被平台不断无偿计算与重塑。

(一)数字化人格

“今天的‘传播环路’以及它们产生的数据库,构成了一座‘超级全景监狱’,一套没有围墙、窗子、塔楼和狱卒的监督系统,”⑤美国学者马克•波斯特将信息社会比作一个规模庞大的“超级全景监狱”,一种复杂的权力网络对大众进行系统化的隐秘监视。对于权利主体而言,被监视的是一个由数据打造的“数字替身”。“数字替身是人们在现实世界中身份虚拟化的产物,是人们现实身份在虚拟世界的延伸和映射。数字替身的出现让人们得以在虚拟世界中完成交互。”⑥Gir⁃van指出,“数字替身调解了我们对这个空间的体验,也可以促进我们同他人分享关于这个世界的共同认知。”⑦简言之,数字替身能够在虚拟世界中形成一系列交互活动。在交互过程中,数字替身同样产生独立人格,是智能传播平台计算的流动数字形象。“个人的数字人格最终如何被建构,实际上与建构者采用何种算法、如何编码等要素密不可分。”⑧智能传播平台根据权利主体基本数据、购买记录、位置共享等行为数据加以整合,精准地计算与分析其特点,形成权利主体完整的数字化人格。但这一所谓完整的数字化人格却易被智能算法重塑。被建构的数字化人格可能是现实人格的部分映射,也可能与现实人格完全不同。具体来说,智能算法基于权利主体数据建构数字化人格,如果上传的数据真实准确,且算法客观与公正,那么建构的人格与现实人格差别不大。需要注意的是,其一,权利主体有意或无意上传带有偏差的个人数据。一方面,如果权利主体固有观念或认知出现偏差,将导致传输内容具有偏见;另一方面,由于网络高包容性的特点,权利主体很有可能随意上传不真实的个人数据,导致数字化人格被错误数据重塑。其二,算法具有偏见。“算法的运行按照既定的程序输入数据,依据计算法对数据进行解读,最后输出运算的结果。从表面上看,算法的运行过程不太可能产生偏见,但事实上并非如此。”⑨看似客观中立的算法,很有可能带有设计者的主观偏见、数据隐含偏见、机器深度学习偏见及其他客观因素引发的偏见。因此,输入偏见或算法偏见的产生会导致智能传播平台计算的数字化人格与现实人格期许相背离,重塑后的人格很有可能面临偏见歧视等问题,对算法对象造成实质性损害。

(二)隐私财产化

数字市场积极推进大数据发展战略,不仅导致数据资源加速增长,推高智能传播市场对大数据预测权利主体需求、开发优质产品或服务的信赖,也使得数据财产价值大幅提升。也就是说,各智能传播平台将数据作为一种商业资本,对包括隐私在内的数据使用愈发频繁,不断挖掘和使用其潜在价值。基于此,隐私不仅作为拉近双方距离、实现彼此之间有效联结和互动的介质,而成为算法推荐关键要素。算法推荐呈现精细化发展趋势:其一,根据权利主体在平台上留下大量的行为数据,特别是对于推荐产品是否有点击的反馈数据,形成有效推荐;其二,根据权利主体历史浏览内容标签,以及自身标签进行匹配,实现内容推荐;其三,根据权利主体片段式行为,推测其背后的意图、场景和动机。⑩对于智能传播平台来说,精细化算法推荐服务能够延长权利主体使用智能传播平台的时间,为各智能传播平台创造更多流量,从而进一步扩大平台自身的数据库资源,使得信息服务更加多元化与适配化。在闭环重构数据过程中,平台将不断对数据(包含隐私)融合处理,整合连接成有效数据或挖掘数据背后深层含义,以便获得更多商业利益。如智能传播平台通过对权利主体行为数据的挖掘与重构实现精准广告投放,这种投放方式有针对性地达到目标触点,产生良好的投放效果,激发权利主体购买意愿和行为。再如,智能传播平台借助算法技术精准分析权利主体的行为数据,为价格不敏感主体进行高额定价。这种差异化定价目的是榨取权利主体剩余,从而获取巨大收益。如此一来,权利主体将损失更多财产,也从侧面体现出隐私的财产化属性。

四、构建智能环境下的隐私权保护机制

智能传播环境下,个性化信息服务离不开算法对数据的持续性分析与整合,这表明包含隐私的数据可利用工具性价值被凸显,隐私不仅承载人格权利,还将衍生财产权益。因此,隐私面临的风险问题,本质根源在于传统隐私权法律关系构成要素发生改变,缺少新型权益架构制定。关于保护公民隐私权的方式很多,法律保护是顶层设计,也是公民隐私权保护的主要屏障。法律规范具有稳定性和前瞻性,这不仅是法律发挥实际效用的基本前提,也是社会稳定的顶层保障。对公民隐私权的保护,应该“突破传统隐私认知理念和权利设置体系”,