看脸时代的隐私难题与出路

一、不会“脸盲”的时代

这是一个对“脸盲”不友好的时代,人际交往中我们未必会记得某人的姓名,但却总对面孔印象深刻。“看脸”是日常生活中我们最常用的区分人的方式,但这样的区分方式正在受到来自网络空间的挑战。Deepfake技术横空出世,并且开放了源代码,让视频中的面孔不再真实,几乎成为了人工智能在伦理道德的反面典型。无论是面部特征的肆意收集还是对人脸的替换,都在不断挑战法律与伦理的底线。

人脸识别信息通常会被直接用于身份鉴别,能够取代用户名、密码的组合来验证身份,因此面部特征被广泛运用于核验身份。机场、火车站开始越开越多地部署人脸识别闸机,很多时候不用刷身份证、刷脸即可完成检票,手机刷脸即可完成解锁、支付。银行开户时需要在摄像头前“眨巴”眼睛以确认是本人操作。一些手机游戏也开始启用了人脸识别验证的功能,作为保护未成年人健康上网的举措。根据网络游戏管理的相关规定,对未成年人玩游戏的时间需要进行限制,传统上是通过输入身份证号码的方式验证年龄,但越来越多的未成年人使用家长的身份证来绕开这一限制,这也就需要网络游戏企业去核验真正玩游戏的人。比如《王者荣耀》会将用户真实面部信息与公安数据平台数据源进行比对,并按用户实际年龄段匹配相应的游戏时限。如比对结果不符或用户拒绝验证,健康系统将统一视作12周岁及以下未成年人,纳入相应的防沉迷监管。

人脸识别技术不仅适用于用户主动配合的核验场景,也被用于被动识别的场景。比如很多地方都在路口部署了摄像头以识别闯红灯的行人,并在旁边树立显示屏实时显示闯红灯行人的姓名、身份证号等信息,每每都会引起隐私的争议。在商业领域亦然,广告屏收集用户的面部表情的技术已经出现并且投入运用,实时分析用户对播放广告所反映出的喜怒哀乐。

二、难以获得的“同意”

面部特征最大的特点是收集便捷,只要通过摄像头即可完成收集,而其他生物识别信息如基因、虹膜、指纹均需要专门设备才可收集、识别,因此人脸面部特征的有着更为广阔的运用前景,随之而来的是更高的法律风险。

在我国正在制定的“民法典人格权编”草案二审稿中,就将面部特征等个人生物识别信息纳入个人信息的范畴。除此以外,面部特征还涉及肖像权的保护问题,是传统法律关系与新兴法律关系的碰撞与融合。面部特征等个人信息的收集、利用,各国法律大多是以用户的“知情-同意”为合法的基础。虽然所有人都认为个人对数据的权利无可厚非,但如何去保护这样的权利却是难以落实。几乎所有人都要饱受数据泄露之苦,也几乎所有企业都会因为法律为数据保护设定的“过高”要求叫苦不迭,认为增加了合规成本。

在“知情-同意”的背后,是用户对厂商的授权,授权厂商根据用户“同意”的内容收集、使用个人信息。但这样的同意机制导致了各方关于数据保护问题的绝望。一方面“同意”形同虚设,少有用户会去关注自己到底点击同意了什么;另外一方面,在一些场景下,获得“同意”几乎是不可能完成的任务。比如公共场合使用人脸识别技术对人脸影像进行商业性的收集、分析,几乎没有获取用户同意的可能。而在更多情况下,用户所面临的是如果拒绝提供个人信息,厂商则会拒绝提供服务。

“知情-同意”的窘境是用户个人在很多时候既不知情,也没法不同意。在数据利用的法律关系下,厂商草拟的“隐私政策”“用户协议”是核心的文件,厂商通过“隐私政策”“用户协议”向用户告知数据利用的范围与方式,用户点击同意。但问题在于这样一份重要的协议几乎无人阅读,而“隐私政策”“用户协议”本身也都佶屈聱牙,难以理解。况且,对用户来说读与不读又有何差异呢?因此,各国的“隐私政策”与“用户协议”都更像是一份为了应付监管,而非构建与用户之间法律关系的文件。

当我们点击“同意”后,我们并不知道我们的面部数据会被用于何处,在社交网站的自拍与其他照片是否会被用于训练机器进行深度学习。据报道,科技公司公司从照片分享网站 Flickr 收集了至少一百万张照片来训练人脸识别系统。这些照片采用了知识共享协议授权,将这些照片用于训练AI并没有违反协议。

面临人脸识别技术的风险,美国已经有多个城市制定了与人脸识别数据相关的法案,禁止人脸识别技术的使用。英国警方因为使用人脸识别技术,被认为侵犯了隐私而被告上法庭。这也是英国首宗因人脸识别技术而起的法律诉讼。加拿大隐私专员办公室(OPC)已在调查商场使用面部识别技术的合法性问题。2019年8月,瑞典数据保护机构对瑞典一所中学因违反通用数据保护条例(GDPR)而判处2万欧元罚款。中学工作人员在一个教室里面安装了一部人脸识别相机作为实验,以检测采用此种方式登记学生考勤是否更为迅速,该实验共涉及22名学生。瑞典数据保护机构认为中学征得的同意不是“自由作出的”,并且不符合最小必要性原则。

三、不得不找的解决方案

对面部特征等个人信息保护的现状是由各种因素所形成的合力所决定的,其中最重要的一股力量是技术。法律框架需要建立在技术基础上,无法凭空设立。之所以厂商在数据保护中占有主导地位,无论是面对监管或者用户都有着压倒性的优势,是因为数据为厂商所控制,法律、个人与监管部门很难跨越厂商,实现对数据的控制。因此,将个人信息的保护嵌入厂商的产品与服务中,将法律与工程结合,会是最为必要的措施之一。对于人脸识别技术,在一些不必要收集个人信息的场合,可以考虑部署相应的“反人脸识别”技术,通过算法自动模糊人脸特征,比如在地图街景中被广泛运用的人脸模糊技术。这样的技术方案不仅可以有效保护用户隐私,也能够降低企业的合规压力。

隐私设计(privacy by design)的理念最早由加拿大渥太华省信息与隐私委员会前主席安•卡沃基安(Ann Cavoukian)提出包括隐私设计的基本原则:(1)积极预防,而非被动救济;(2)隐私默认保护;(3)将隐私嵌入设计之中;(4)功能完整——正和而非零和;(5)全生命周期的保护;(6)可见性和透明性;(7)尊重用户隐私。欧洲联盟网络和信息安全局在2014年12月发布的《通过设计保护隐私与数据 – 从政策到工程》报告中,强调了隐私加强技术使用的重要性,隐私加强技术通常包括加密、匿名化等技术措施。在我国,全国信息安全标准化技术委员会也在2019年8月就《个人信息安全工程指南》征求意见,为产品的隐私设计提供指引。2019年8月,支付宝发布了《生物识别用户隐私与安全保护倡议》,呼吁从事该行业的科技企业加入进来,保护用户生物识别信息。

“联邦学习”(Federated Learning,也翻译为“联盟学习”)技术看起来也是一项颇为有助于数据保护的技术。联邦学习是一种新的机器学习模型,简而言之,是在数据在不离开用户设备的情况下完成机器学习,即无需将数据上传至厂商服务器,在用户终端完成对算法的训练,仅需要将训练完成后的结果上传至服务器。联邦学习将原本中心化的训练过程分散于各个终端,因为数据未离开用户设备,训练结果也无法还原出原始数据,在这样的情况下用户自然对数据具有更多的掌控,看起来是一个两全之策。目前,Google的输入法正在使用联合学习来改进预测类型以及数千万设备的表情符号预测。联邦学习就像是《火影忍者》里面的“影分身之术”,分身会将学习的经验返回给实体,而风险却被减低,当然需要厂商有足够的“查克拉”(技术能力)才有可能部署合适的技术保护用户隐私。

在用户一方,也开始警惕人脸识别技术的滥用,规避通过面部特征收集个人信息的“反人脸识别”技术也开始涌现。比如“脑门贴纸”——穿戴绘制特定图案的眼镜、帽子、衣服能够有效干扰机器视觉,避免算法对人的识别,更谈不上人脸识别技术的运用。

当我们在享受人工智能、人脸识别技术的巨大便利的同时,也不得不关注其背后的数据流动与法律关系。如果说普通人难以穿越迷雾,理解产品背后的玄机,那么律师、信息安全人员、设计师就应该承担更多的义务,对数据背后的法律文件、数据流、收集方式予以更多的关注。

发表评论

电子邮件地址不会被公开。 必填项已用*标注