2021-09-10 17:35:57 来源:中国周刊
作者:韩旭至 华东政法大学法律学院特聘副研究员,法学博士。
人脸识别俗称刷脸,刷脸解锁、刷脸支付、刷脸进站、刷脸入校等形塑了数字时代的生活方式,也带来了信息保护的挑战。2021年4月全国信息安全标准化技术委员会公布了《信息安全技术人脸识别数据安全要求(征求意见稿)》(以下简称“人脸识别国标草案”),从安全处理的角度对刷脸进行规范;2021年7月最高人民法院发布“人脸识别司法解释”(法释〔2021〕15号),明确将刷脸纳入生物识别信息保护的范畴;2021年8月20日通过的《个人信息保护法》第62条第2项更是明确要求国家网信部门针对人脸识别制定专门的规则。
在比较法上,部分发达国家和地区亦发布了相关规范。例如,早在2012年,美国联邦通讯委员会即发布了“人脸识别技术的最佳商业实践建议”;2019年,美国马塞诸塞州萨默维尔市、加州奥克兰市等地通过立法禁止政府部门使用人脸识别;同年,欧盟人工智能高级专家组(HLEGAI)提出必须适当使用人脸识别技术,欧盟基本权利机构发布了“人脸识别技术:执法过程中的基本权利考虑”报告;2020年,美国华盛顿州通过了针对政府机构的“人脸识别法”,纽约州亦立法禁止了在学校中使用人脸识别。
然而,直接套用上述规范实难以对刷脸的根本问题形成清晰的认识。在“刷脸进小区”的争议中,为何保安“看”可以而机器“看”不行?在我国“人脸识别第一案”中,同为利用生物识别信息进行的身份识别,又为何当事人能接受指纹识别却强烈反对刷脸?这些问题均与刷脸的技术肌理密不可分。笔者将沿着刷脸技术属性转换的主线,考察刷脸的风险变迁与规制机制转向,最终提出适应于技术发展的法律治理路径。
一、刷脸的属性转换
从人“看”到技术“看”的升级中,刷脸的技术特征就是模仿人的认知模式,底层技术逻辑是通过捕获图像、人脸检测、人脸提取、匹配,最终完成验证或识别,属于一种身份识别机制。随着技术发展,在众多应用场景中,刷脸又走向了利用人脸信息对个人进行分析的技术路线。此时,刷脸进一步使用了人工智能技术,在识别/验证的基础上对人进行了情感计算、健康评估、习惯分析等画像,其属性已转换为一种识别分析机制。
(一)刷脸的起源与实质:身份识别机制
“脸”具有直接识别性、方便性、不可更改性、易采集性、不可匿名性等独特的属性,是“生物性的通用标识符”。脸是人体的重要组成部分。人类一直以来都通过脸来表达情感、辨识个人。以小区刷脸门禁系统为例,在没有采用刷脸的技术系统前,小区门卫保安亦通过直接的脸部特征、行为模式辨识业主。刷脸实际是通过自动化手段完成人工的身份识别。这一技术源于20世纪60年代,伍迪·布莱索团队发明的第一套半自动的面部识别系统,该系统通过计算机识别人像照片的若干特征,进而进行进一步的人工测量。随着计算机与人工智能技术的发展,最终实现在自然环境下对人脸信息的完全自动化采集与比对,发展成为今天的刷脸科技。又由于脸的普遍性和独特性,刷脸被应用在密码验证、安全监控、受害者和失踪者识别等多种领域,成为了应用最广泛的生物识别方法。
刷脸与账号密码、数字签名、人工核验等多种方式共同发挥着身份识别机制的作用。《人民法院在线诉讼规则》规定,既可以“通过证件证照在线比对、身份认证平台认证等方式验证身份”,也可以“采取人脸识别方式验证身份”。《人民检察院办理网络犯罪案件规定》指出,“账户信息、身份认证信息、数字签名、生物识别信息等”都可用于识别犯罪嫌疑人。中国银保监会更是明确指出,可通过“银行预留信息核实、人脸识别、人工核验方式”“设置有效的身份识别机制”。实践中,刷脸在一定程度上替代了密码,成为更为便捷的识别/验证机制。密码验证对保密的安全要求较高,部分系统会定期提示用户更换密码,部分系统更会要求用户采用高度复杂的密码,如同时包含大小写字母与特殊字符。然而,用户将不可避免地会忘记密码,从而需要邮箱验证、短信验证、扫二维码验证等其他识别/验证机制找回密码。与之相对,通过刷脸验证有显而易见的优势,其不仅极为便捷而且还不存在密码丢失的烦恼。2018年,国务院办公厅即将刷脸登录便捷办理民生服务作为优化营商环境的典型做法进行通报。
(二)刷脸的发展与忧虑:识别分析机制
在身份识别外,脸亦是被观察、分析的对象。生活中,人们时常直观地通过脸对人的个性、状态进行分析。慈眉善目、凶神恶煞、贼眉鼠眼、蓬头垢面均指向截然不同的状态。这些判断大多是主观的,有时还具有一定的迷信色彩,如民间大多将“天庭饱满、地阁方圆”视为福相。采取量化分析方法,对脸进行分析可追溯至一百多年以前龙勃罗梭的“天生犯罪人”理论,其根据“对1279名意大利罪犯的人体测量和相貌分析”,指出特定外貌特征的人具有犯罪倾向。显然,这一理论有极大的历史局限性,且极易导致种族主义倾向的结论。2002年著名科幻电影《小数派报告》描绘了刷脸的识别分析应用的两类场景:一是根据预测性分析在嫌疑人将要实施犯罪前就实施逮捕;二是购物消费时对顾客进行刷脸以调取其购物记录并结合已知的数据库进行分析。当前,电影中的商业应用场景已经成为现实,部分商场的刷脸广告牌已具备了根据路过人群进行客流量统计、根据停留时间或其他注意力标准作参与度估算、根据个性化分析结果进行定向广告等多项功能。在部分公共监控中,刷脸也已被用于识别目标对象的情绪,服务于社会治理与维稳目的。广州互联网法院的在线调解系统便使用了情感计算,根据脸部的微表情进行数据画像,实时显示出当事人的“平静、高兴、愤怒、恐惧、悲伤、厌恶、惊奇”7项指标数值。
此时,刷脸的属性已发生了转变。刷脸不再限于“把人认出来”的身份识别过程,而是重在人脸验证/人脸辨析基础上所进行的人脸分析或其他关联分析,已从纯粹的身份识别机制转换为识别分析机制。从技术上看,刷脸的这种识别分析机制又极具特殊性,与人主观的“看脸”、龙勃罗梭的测量分析系相比至少有三大差异。第一,不仅采用量化的数学方法进行,而且预测分析的特征更为深入和广泛。通过刷脸可对个人进行性别、年龄和种族的特征进行深入分析。第二,利用互联网与既有数据库,能结合大数据进行预测分析。实验表明,可以轻易地将刷脸设备所采集的信息与社交网站上的公开信息相关联,进而推断出额外的信息。第三,能分析更为隐秘的、敏感的信息,且分析结论更为准确、可信。2017年,斯坦福大学即开发出一套通过人脸识别判断性取向的神经网络算法,准确率达91%。
刷脸的识别分析机制通过自动化的技术闭环对个人信息进行整合分析,正是引起社会普遍忧虑的根本问题所在。借用技术哲学的分析框架,人的直接“看脸”行为无关技术;人利用工具对脸进行测量,工具是一阶技术;刷脸的身份识别机制中,人通过设备感知脸部,再作用于识别、验证程序,是二阶技术运用;刷脸的识别分析机制中,往往是完全自动化的,形成了设备感知、识别/验证、关联分析的三阶技术逻辑。此时,相关结论往往又重新作用于新的识别分析,由此形成技术闭环。在此种技术闭环中,公众担心的不是身份识别机制本身,而是将人脸信息与个人的购物记录、健康情况、行踪轨迹、亲友关系等信息进行关联匹配,以及可能产生的歧视、异化等问题。
二、刷脸的风险变迁
伴随着从身份机制到识别分析机制的属性转换,刷脸的风险也发生了变化和迁移。虽然,随着技术的升级,身份识别机制的信息安全风险已在很大程度上得到了有效控制,但在识别分析机制的应用中,安全风险又被重新放大。此外,刷脸的识别分析机制在公共监控中的应用更是直接导致监视权力的扩张,为基本权利保护带来更为严峻的挑战。
(一)安全风险的产生、缓解与再现
身份识别机制中,刷脸的安全风险突出地表现为错误率高与易被破解。一方面,刷脸系统的错误率较高。刷脸受姿态、表情、光线、角度等因素的影响,并极大局限在正面识别的应用。2017年,英国警方尝试在欧冠决赛中使用刷脸系统,但却出现了高达92%的误报率。另一方面,刷脸系统有被破解的风险。曾经有小学生成功用打印照片开启了小区的智能快递柜。近年更是出现了利用刷脸技术漏洞实施违法犯罪的案件,如利用公民照片制作3D人脸动态图像后通过刷脸登录窃取网络账户金额,或结合相关人脸图像与其他非法获取的个人信息,假冒他人身份注册网络账户牟利。
随着刷脸的算法不断发展,识别分析机制的上述安全风险已在一定程度上得到缓解。当前,刷脸的正确率已大为提升。所采集的人脸关键点亦已由最初的21个提高到240个甚至更高精度的采集,能适应侧脸、表情变化、局部遮挡等变化。例如,DeepID算法验证准确率已达97.45%。部分刷脸系统已升级至动态的活体检测系统,要求用户完成一定动作,亦提升安全性。若采取双重或多重因子认证,将进一步提升身份识别机制的安全性。在这个意义上,刷脸增强了身份识别的安全可靠。例如教育部即明确提出,高考考生身份核验要辅之以刷脸的技术措施;国家广播电视总局亦曾经要求,要结合实名验证、人脸识别、人工审核等措施以落实网络实名制。
然而,识别分析机制的应用,又再次放大了刷脸的安全风险。一方面,刷脸的代码/算法一旦出现漏洞,将不仅仅涉及身份识别错误,更可能得出对个人不利的分析结论,进而作出侵害个人权益的自动化决策。另一方面,识别分析机制也可能关联错误的信息,且可能导致错误在技术闭环的反馈中被反复放大。因此,在刷脸的识别分析机制中,即便是极低的错误率也有可能带来不可接受的风险。
(二)监视权力的形成、扩张及后果
一方面,借助刷脸的身份识别机制,监控能更为高效、迅速地在公共空间中识别出特定个人,其运行逻辑高度契合“确保不对称、不平衡和差异”的权力机制。福柯曾借用边沁的“全景敞视监狱”阐释监视权力的逻辑,即面对观看的权力,被观看者只能选择服从。“持续可见”的监视“造成一种有意识的和持续的可见状态,从而确保权力自动地发挥作用”。联合国人权事务高级专员曾表示这种监视权力有可能侵犯人权。
另一方面,刷脸的识别分析机制,又使监视权力进一步扩张。研究表明,公共视频监控实现权力规训的程度,往往取决于监控系统的网络化程度、回应速度与识别分析能力。识别分析机制中,常借助互联网、大数据对人脸信息进行分析。2020年《纽约时报》报道用于执法的Clearview刷脸应用,可以自动地对人们在就业、新闻、教育、社交等各种网站上的数据进行爬取。利用网络社会所形成“观看—权力”关系,识别分析机制将轻易揭示出极为隐秘的信息,形成个人的数字形象,对个人进行持续的追踪和监视,“构成了一座‘超级全景监狱’”。
监视权力的野蛮生长直接对基本权利保护带来更为严峻的挑战。当下,刷脸至少涉及以下基本权利保护问题。第一,政治权利和自由的保护。2019年,欧盟基本权利机构即表示,类似应用将产生寒蝉效应,对言论自由、集会自由、结社自由以及行动自由带来消极影响。第二,平等权利的保护。研究表明,女性和有色人种刷脸出错率更高,容易产生有偏见的结果。第三,人格尊严、信息权利的保护。2016年,俄罗斯开发商TrinityDigital推出“FindFace”程序,通过该程序进行人脸识别,可以找出个人的社交账号,有网民利用该服务披露性工作者和色情影片演员的真实身份。这些刷脸应用“正在迅速地将一个以信息保护为基础的社会转变为透明社会”。
值得注意的是,刷脸的识别分析机制亦指向大数据经济中的另一种监视。被称为“监视资本主义”的生产过程,即通过对用户数据进行识别分析,并将相关分析结果用作定向营销,最终实现数据要素向利润的转化。刷脸广告的运行机制与这一过程完全吻合。由此亦带来了个人信息保护的风险。
三、刷脸的规制机制适用与转向
刷脸作为一种身份识别机制指向特定自然人,属于个人信息的处理,适用信息保护机制。随着刷脸技术的发展,生物识别信息保护机制的适用,需要限制告知同意的适用;公共监控信息保护机制的适用,又需要引入自动化决策及风险影响评估的框架;信息保护的规制理念,更需向数字人权保护与场景化规制转向。
(一)生物识别信息保护机制的适用与转向
从生物识别信息保护机制来看,“人脸识别司法解释”第1条第3款明确规定人脸信息属于生物识别信息。无论是身份识别还是识别分析,刷脸均适用生物识别信息保护机制。传统的生物识别信息保护机制在很大程度上仍遵循告知同意的规则。基于敏感个人信息的处理规则,个人信息保护法第29条、“人脸识别司法解释”第2条第3项均强调了单独同意或书面同意的要求。个人信息保护法第13条第2款亦实际确立了同意为原则的个人信息合法处理要件。域外法中,美国伊利诺斯州生物信息隐私法(以下简称BIPA)第15条即明确提出了书面告知与书面同意的要求。欧盟通用数据保护条例(以下简称GDPR)第9条亦将“信息主体明确同意”规定为敏感信息的处理依据之一。
然而,在刷脸的实践中,告知同意的机制已经出现失灵。欧洲国家的个人信息保护机构已明确表示,面对不特定主体自动化运行的刷脸应用难以依靠同意而获得合法性。分析可知,告知同意机制的适用存在以下障碍:第一,脸部信息具有易采集性,刷脸是通过非接触方式进行的,无须自然人进行配合。尤其是在无感刷脸的场景中,信息主体难以知悉其正在被技术监控。第二,刷脸常在权力/地位不对等的环境中被使用,难以确保同意的有效性。2019年,瑞典的一所学校采用刷脸方式考勤,且征得了学生同意,瑞典数据保护局认为“鉴于信息主体和信息控制者之间的不平衡,同意不是有效的法律依据”,最终对该学校开具了1000万瑞典克朗的罚单。该案件也是瑞典适用GDPR的首个案件。第三,刷脸技术较为复杂且缺乏透明度,信息主体难以理解同意的后果和风险。尤其是在识别分析机制下,信息主体不仅难以知悉其脸部信息在何种程度上与何种数据库进行关联比对,最终又将被何种机构用于何种用途,更难以获得关于信息存储安全性、自动化决策算法逻辑的信息。
因此,在刷脸的生物识别信息保护中,需要严格限制告知同意的事由。参照欧盟法的规定,同意只有在自由的、知情的前提下作出,而且是明确、单独地针对具体的信息处理行为的同意,才是有效的。在告知同意外,BIPA第15条亦提出“不得出售、出租、交易或以其他方式”利用生物识别信息牟利的规定。GDPR第9条则亦规定了履行义务或实施权利所必要、保护信息主体权利所必须等多项例外事由。事实上,无论同意是否有效,刷脸的合法性亦必须回归到敏感信息处理的一般条款中进行分析。根据个人信息保护法第28条,刷脸的处理必须符合“具有特定的目的和充分的必要性”“并采取严格保护措施”的规定。
(二)公共监控信息保护机制的适用与转向
当刷脸被用于公共监控场景时,此时刷脸不仅适用于生物识别信息的保护机制,而且还适用建立在人权法框架之下的公共监控信息保护机制。从制度发展来看,公共监控信息保护随着技术的发展而不断加强。在美国法中,监控技术的发展直接推翻了“公共场无隐私”的观点。在著名的“凯诺案”中,美国联邦最高法院认定使用热成像设备扫描住宅外部构成了不合理的搜查。“琼斯案”中,美国联邦最高法院又认定未经授权使用GPS信息监控构成违宪。英国“调查权力法案”和“公共监控实务守则”,更是直接适用于公共监控中的刷脸,其规定公共监控必须遵循比例性、合法性、可靠性、必要性原则,限定在合法必要的目的使用,且充分考虑对个人权利的影响。随着刷脸被广泛使用于商业和其他目的,发端于人权法框架的公共监控规制逻辑也逐渐被拓展到一般的公共场所刷脸之中。近年来,我国法院也注意到私人主体在公共空间安装智能监控的风险。例如,在“刘某与沈某隐私权纠纷案”中,法院认为具有刷脸功能的智能门铃对邻居的“出行规律、人员流动等进行了记录”,造成了侵扰后果,应予拆除。
然而,传统公共监控信息保护制度实难以全面回应前述监视权力扩张的风险。对于刷脸的识别分析机制,至少还应涵盖自动化决策框架下的透明度和结果公平合理的要求,以及引入风险影响评估制度,这些要求将对公共监控的合法性判断产生重要影响。2019年英国“布里奇斯案”中,基于传统公共监控信息保护制度,英国高等法院认定南威尔士警方对示威者使用自动面部识别技术合法。英国信息专员办公室对该案提出批评,认为警方没有对信息保障进行恰当的风险影响评估,在“全面和不加区分的基础上”收集个人信息将产生过大风险。2020年英国上诉法院改判,认定该刷脸系统的使用方式侵犯了人权。针对刷脸的最新发展与应用,2021年英国信息专员办公室发布“公共场所中人脸识别技术的使用”报告指出,公共场所中的刷脸应当符合公平、透明、必要性、风险影响评估等基本要求。
此外,从我国立法来看,公共监控信息保护机制与生物识别信息保护机制之间存在相对割裂的问题。根据个人信息保护法第26条规定“公共场所安装图像采集、个人身份识别设备”,是“为维护公共安全所必需”以及“设置显著的提示标识”。“人脸识别司法解释”第5条第2项规定亦将“为维护公共安全,依据国家有关规定在公共场所使用人脸识别技术的”作为明确的免责事由,缺乏对公共安全作基本的必要性分析与比例原则衡量的要求。若直接适用这些条款,将存在架空敏感个人信息保护机制的危险。公共监控信息保护机制是进一步限制刷脸的机制,不应成为突破生物识别信息保护机制的例外。必须通过相关条例的解释,使得公共监控中的刷脸适用“生物识别信息保护机制+公共监控信息保护机制”的双重限制。
(三)呼唤信息保护的理念转向
信息保护机制失灵的根本原因在于,传统隐私和信息保护的代表性理论已难以适应刷脸的技术发展。第一,从独处权理论来看,一个多世纪以前,为应对新兴的摄影技术,沃伦、布兰代斯首次借用“独处权”的概念对隐私权进行了论述。这一经典理论所强调的是物理空间的隐私保护,难以适应于数字时代的刷脸。第二,从有限接近和保密理论来看,加夫森将隐私描述为“保密、匿名和独处”。有国内学者亦指出,“看破不说破”是隐私规范的重要内容,即要求知情人“在一定范围内掩饰其对特定信息的占有或使用状态”。然而,刷脸对个人权益的侵害不因其泄密,在识别分析机制中更是常会利用信息主体主动上传分享的数据。第三,从个人信息控制权理论来看,“隐私是对自己信息的控制”。对于是否被刷脸,刷脸信息如何被比对,信息主体往往缺乏控制力。
对此,首先应从数字人权的高度把握刷脸中的信息保护理论命题。刷脸的机制与人的“数字属性”息息相关,刷脸的信息保护必须坚持数字人权的引领。在“双层空间、虚实同构”的数字时代中,发生了“从自然人到‘信息人’的转变”。一方面,刷脸的身份识别机制本身就是一种通过“信息人”证明自然人身份的“可信身份认证”模式;另一方面,刷脸的识别分析机制通过数据汇集、比对、分析,进一步强化了“生活方式的数字化表达”。正是人的“数字属性”赋予了人权数字属性,构成了数字人权的基础。以数字人权的理念引领,即要求以人权的尺度作为评判刷脸的根本标准,由此可对信息保护机制进行重新审视。
其次,从信息保护理论发展角度,应通过“情景脉络完整性理论”,引入场景化规制的方法。尼森鲍姆指出,若信息流动脱离既定的语境和场景,将构成对隐私的侵犯。也就是说,信息保护与具体场景中的社会规范息息相关。物理空间的生活中“看脸”与设备刷脸的场景有极大差异,在身份识别意义上的刷脸又与在识别分析意义上的刷脸场景大为不同。身份识别的场景中,信息流动的范围较为有限,对传统信息保护机制的挑战较小。识别分析的场景中,却极易使人脸信息脱离其特定的使用背景,必须予以重点规制。由此,可进一步构建适应识别分析机制的法律治理路径。
四、适应识别分析机制的法律治理路径
在迈向识别分析的属性转换中,刷脸的法律治理路径可分为三个层次。第一,在刷脸法律治理的一般原则上,强调比例原则的检验。第二,在识别分析机制的特殊规制上,适用自动化决策框架进行场景化规制。第三,以架构设计进一步降低识别分析的风险,支持刷脸的合法应用与发展。
(一)一般原则的优化:以比例原则作“最小必要”检验
适应识别分析机制的法律治理,绝非只适用于识别分析机制的法律治理。如前所述,刷脸的识别分析机制中的许多突出问题,是身份识别机制中相关问题的放大。对此,必须根据数字人权的价值指引,从信息保护一般原则的优化出发,以比例原则作“最小必要”检验。
比例原则的检验是个人信息保护“最小必要”原则的题中应有之义。必要原则一直是我国个人信息保护的基本原则。个人信息保护法第6条更是明确指出处理个人信息“应当采取对个人权益影响最小的方式、限于实现处理目的的最小范围”。同时,刷脸作为生物识别信息处理,依该法第28条亦须以“充分的必要性”为前提。“人脸识别国标草案”更是将“非人脸识别方式安全性或便捷性显著低于人脸识别方式”作为刷脸的前提条件。
比例原则要求信息处理者在使用刷脸系统前应严格审查使用该系统的预期目标,同时考虑对信息主体权利的影响。信息处理者必须证明其不能通过使用侵入性较低的其他方式合理地实现相关目的。如果有可能通过其他对个人权利干预较小的方式合理地实现相同或类似结果,那么刷脸的使用就是不合比例的。当刷脸并非实现目标的唯一可能手段时,就必须考虑其他侵入性较小的替代措施。提高效率并非刷脸的正当理由,即便稍微比其他不使用生物识别信息的措施更具效率,刷脸也可能是不必要的。在前述瑞典对学校使用刷脸考勤的处罚案件中,瑞典数据保护局即根据比例原则指出,应采取对学生个人信息权益侵害更小的其他方式实现考勤目的。
未经比例原则检验,仅凭“为维护公共安全”本身不能认定刷脸的必要性。如前所述,个人信息保护法第26条、“人脸识别司法解释”第5条第2项必须作严格限缩。对信息保护基本权利的限制需要有充分的理由。即便是为执法的目的,对敏感个人信息的处理亦必须符合“充分的必要性”要求。在“马普尔案”中,欧洲人权法院即表示,以公共利益为由无限期保留已无罪释放的嫌疑人的生物识别信息属于不合比例的措施。
此外,比例原则检验是一个利益衡量的过程。追求的是信息处理者的利益、个人的权利和社会的公共利益之间的平衡,因此必须进行风险影响评估。实际上,根据个人信息保护法第55条第1项及第2项,刷脸的机制至少涉及“处理敏感个人信息”与“利用个人信息进行自动化决策”,必须在事前进行风险评估。根据该条,至少应结合刷脸的目的、处理方式、对个人可能造成的影响、安全措施进行综合评判。参照GDPR序言第75条,可通过对个人身体、财产或其他非物质损害的角度评价具体风险。经风险评估和利益衡量,若刷脸的预期目标足够重要,且能证明对个人信息权益的干预是必要、合理的,即可进行相关应用。例如,在特定地点进行刷脸以抓捕逃犯、为高效防控疫情进行刷脸均符合数字人权价值与比例原则的要求。
(二)特殊规则的细化:自动化决策框架下的场景化规制
在个人信息保护法第73条第2款的意义上,自动化决策的概念与识别分析存在一定混同。刷脸的识别分析机制天然应适用自动化决策的分析框架。从自动化决策的角度,根据该法第24条第1款,刷脸的识别分析至少需要满足“保证决策的透明度和结果公平、公正”的基本要求。第一,透明度的要求超越了该法第30条敏感信息处理的告知义务。参照英国的相关文件,自动化决策的透明度不仅要求向信息主体告知“必要性以及对个人权益的影响”,而且需要提供关于脸部信息被如何处理的清晰信息,即需要采取便利、可获取的方式,向信息主体充分展示刷脸的使用状态与目的、数据处理方式、维权途径等信息。第二,结果公平、公正不仅要求技术的上有效和准确,而且要求排除偏见和歧视的风险。参照欧盟的相关文件,刷脸系统不得根据种族、民族、宗教信仰、性取向等高风险类别对人群进行分类。
自动化决策的分析框架,应进一步适用于刷脸的具体应用场景中。尤其是当刷脸的识别分析机制被用于金融、住房、保险、教育、司法、就业、健康等将对个人权益有重大影响的场景时,根据个人信息保护法第24条第3款,信息主体具有“要求个人信息处理者予以说明”的权利与自动化决策拒绝权。该条款在逻辑结构上与GDPR第22条第1款高度相似。参考算法解释权的理论,应将“予以说明”解释为以简单易懂的语言、易于获取的形式,清晰地向信息主体解释刷脸识别分析机制的基本逻辑,展示根据何种要素作出相关决策,以便信息主体行使拒绝权。此外,就信息主体的拒绝权而言,对于刷脸的拒绝权绝不限于自动化决策。对于任何不符合比例原则、不必要的刷脸,个人均有权拒绝。“人脸识别司法解释”第10条即指出,个人有权拒绝将刷脸作为“出入物业服务区域的唯一验证方式”,并有权“请求其提供其他合理验证方式”。
值得注意的是,常见的公共部门/私营部门分别规制的模式,不应作为场景化规制引入。该种规制模式下,公共部门刷脸可以分为绝对禁止和严格限制两种类型。前述美国马塞诸塞州萨默维尔市、加州奥克兰市等即严格禁止公共部门获得、保留、接入或使用人脸识别技术。美国华盛顿州“人脸识别法”则采取了严格限制的立场,对刷脸明确提出了算法解释、算法问责、算法审计等要求。与之相比,对私营部门的刷脸则更为强调告知同意机制的优化。笔者并不赞同我国采用这一规制逻辑,理由有三:第一,公共部门与私营部门的划分多见于美国法,是美国行业分散立法的信息保护模式所决定的。我国个人信息保护已采取统一立法模式,无须根据行业或部门对某一信息保护事项进行区分。第二,对公共部门进行重点规制的理由并不充分。公共部门刷脸不一定比私营部门具有更高的风险。而且从社会公共利益与商业利益比较的角度,更可能得出对私营部门严格规制的结论。第三,公共部门与私营部门只是刷脸的主体,无法指向刷脸的具体应用场景。唯有从具体的应用场景出发,才能充分评估刷脸对信息主体的影响和风险,并提出相应的规制策略。
(三)“隐私设计”与去标识化、匿名化的倡导
个人信息保护法第51条明确要求信息处理者应采取措施实现个人信息保护。该规定契合了“隐私设计”的逻辑。参照GDPR第25条,“隐私设计”即要求将个人信息保护理念提前融入到刷脸的产品设计之中。就刷脸的架构设计而言,至少可采取以下方式:第一,在选择技术解决方案时,应首选“隐私计算”技术,并不断提高刷脸的安全性、精确度、活体检测技术,制定合理的安全保护措施,以“最小必要”原则约束产品代码。第二,在开发刷脸产品和服务时考虑信息的敏感性,且采取措施保障信息主体的知情权、选择权。例如在手机端的刷脸应用中,可通过“弹窗”的方式直接履行告知义务,且应同时提供其他验证方式,不得通过“默认勾选”的方式逾越信息采集的必要范围。第三,鼓励开发供用户使用的信息保护技术。例如感应到镜头时发出闪光从而破坏图像“防狗仔装置”,或通过手机端向一定范围内的信息处理者广播拒绝刷脸的技术。
针对刷脸的识别分析机制,应充分发挥去标识化与匿名化的作用。个人信息保护法第51条第3项即明确将去标识化规定为一种安全技术措施。通过“计算机视觉伪装”技术,可对脸部图像可作去标识化处理。当达到“经过处理无法识别特定自然人且不能复原”的标准时,即进一步构成匿名信息。在前述刷脸广告的事例中,当相关信息被用于日后的广告推送时,即便进行了相关去标识化处理也必然是具有识别性的,属于个人信息处理。然而,这并不表明人脸信息就无法实现匿名。2016年,德国零售商Real使用AdPack人脸分析技术进行户外广告,该技术仅在150毫秒内对所采集的人脸信息进行本地化缓存随后即马上删除。对于类似的“瞬态刷脸”而言,无论是信息处理者还是任何第三方均无法通过合理的成本复原相关信息并识别到特定个人,已经实现了匿名化。
尽管如此,以AdPack为代表的应用还是受到了大量批评与投诉,最终被迫下架。这里的核心问题是:识别分析机制中的匿名信息是否应受到信息保护机制约束。对此,有学者主张,“应当将用户匿名行为信息纳入个人信息的范畴”,“采取特殊的个人信息保护机制”。笔者认为,不能轻易动摇个人信息的基本概念,作为非个人信息的匿名信息属于可自由流动的信息。对刷脸的限制措施并非越多越好,刷脸的法律治理必须从刷脸的实际风险出发,切勿由于对新技术的恐惧而不当限制技术的发展。桑斯坦指出,对新风险的认知偏差导致容易产生“概率忽视”的现象,即人们倾向于关注负面结果,而不是它的可能性。法律可能会过度补偿以解决消费者的忧虑,从而导致“花费巨大却收效甚微或毫无收获”。历史经验表明,如果过度补偿短期恐惧,基于最敏感的一方设定规则,将不利于新技术的发展与应用。
就刷脸的法律治理而言,必须认识到滞后性不是法律的缺点而是法律的特性,对于一个尚未发展成熟的新技术应保持适当的谦抑。当前,刷脸的匿名化有极大的应用空间和现实需求。刷脸的分析机制本身即不一定建立在身份识别的基础之上,人脸验证、人脸辨析、人脸分析可以相互独立。公共场所人流量统计、体温检测、图片美化都属于典型的不以识别为基础的人脸分析应用。在匿名化后,刷脸即可合法地应用于自动驾驶的行人判断、公共场所的人流量统计等众多场景之中。由此,通过架构设计的优化,推动刷脸的合法应用不断发展,刷脸的风险将会降低,人们对刷脸的恐惧也将消除。
结 语
信息保护制度随着技术的发展而发展。1890年,在摄影技术的背景下,沃伦与布兰代斯提出了“隐私权”的理论。1983年,在计算机技术的背景下,在著名的“人口普查案”基础上,德国学者提出了“个人信息自决权”理论。当前,数字时代已经到来,刷脸作为一种高效、便捷、可用的技术,其未来应用必将更加广泛和深入。总而言之,在人“看”到技术“看”升级的过程中,刷脸风险的核心既不在于“看”也不于“脸”,而在于对个人信息的数字化处理、比对和分析。作为一种身份识别机制,刷脸的技术逻辑与规制方式均不复杂。在身份识别机制向识别分析机制的转换中,刷脸的风险了发生迁移,规制机制的适用产生了转向。对此,必须从比例原则检验、自动化决策下的场景化规制与技术架构设计三个方面予以应对,使野蛮生长的刷脸回归到合法的轨道上,捍卫数字时代的个人信息权益。(来源:《东方法学》2021年第5期)
专题统筹:秦前松
编辑:海洋