隔靴如何搔痒:问责算法

一、“黑箱”的烦恼

机器学习技术的兴起让人工智能成为近几年来最为火热的技术之一,各行各业都开始陷入人工智能的狂热之中。目前大部分机器学习算法,都是基于人工神经网络(Artificial Neural Network,即ANN)来构建的。人工神经网络是由大量处理单元互联组成的非线性、自适应信息处理系统。它是在现代神经科学研究成果的基础上提出的,试图通过模拟大脑神经网络处理、记忆信息的方式进行信息处理

人工智能对法律的挑战同样存在,算法的不透明是其中最为重要的挑战之一,决策依据不透明导致风险不可控,而神经网络的决策过程也被视为“黑箱”。

当王思聪在新浪微博上的抽奖暴露出新浪微博抽奖算法对男性用户的歧视;当华为手机采用人工智能优化了CPU、GPU、NPU等性能的调度,在识别跑分测试应用程序会智能开启“性能模式”来提供最强的性能,当短视频疯狂根据浏览习惯推荐视频;当百度搜索把QQ邮箱的“山寨版”置于搜索结果首位……尽管这些算法未必都与神经网络或是机器学习有关,但算法对法律的挑战已经来到前台。

二、隔靴照样搔痒——问责“黑箱”

尽管人们尝试过使用开放源代码这样的方式对抗“黑箱”,但效果并不尽如人意,而且开源在很多领域并不现实。同样,即使是要求算法具有可解释性也不具有实际意义,目前神经网络根本没有办法被解释。

在2018年1月11日,今日头条召开了一场旨在推动整个行业来问诊算法、建言算法的分享交流会。资深算法架构师、中国科学技术大学计算机博士曹欢欢,在今日头条总部带来了题为《让算法公开透明》的分享,面向行业公开算法原理,消除社会各界对算法的一些误解,同时接受意见和建议。但到了2018年4月,因为“快手”“火山小视频”直播短视频平台传播涉未成年人低俗不良信息导致社会舆论反映强烈,国家网信办于4月4日依法约谈“快手”和今日头条旗下“火山小视频”相关负责人,提出严肃批评,责令全面进行整改。国家网信办依据《网络安全法》《互联网信息服务管理办法》《互联网直播服务管理规定》等法律法规,要求“快手”“火山小视频”暂停有关算法推荐功能,并将违规网络主播纳入跨平台禁播黑名单,禁止其再次注册直播账号。

在国务院2017年7月发布的《新一代人工智能发展规划的通知》中,提出建立人工智能安全监管和评估体系:

“建立健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管。促进人工智能行业和企业自律,切实加强管理,加大对数据滥用、侵犯个人隐私、违背道德伦理等行为的惩戒力度。”

可以预期,中国会采取设计问责+应用监督的监管模式,控制有害算法结果的输出,并确保算法决策受到与人类决策相同的规制。实际上,法律也从来没有回避过“黑箱”,或者说“黑箱”对法律来说不是一个多么严重的问题。算法无论是开源、“黑箱”或者是商业秘密,监管从来都不会缺席。在各国的立法以及国家标准中,也越来越频繁将算法纳入规制的对象。

《电子商务法》

第十八条 电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。

《个人信息安全规范》

当仅依据信息系统的自动决策而做出显著影响个人信息主体权益的决定时(例如基于用户画像决定个人信用及贷款额度,或将用户画像用于面试筛选),个人信息控制者应向个人信息主体提供申诉方法。

《通用数据保护条例》(欧盟GDPR)

第22条 数据主体有权不受仅基于自动化处理行为得出的决定的制约,……

在“魏则西事件”发生后,国家网信办会同国家工商总局、国家卫生计生委和北京市有关部门成立联合调查组进驻百度公司。要求“改变竞价排名机制,不能仅以给钱多少作为排位标准。立即调整相关技术系统,在2016年5月31日前,提出以信誉度为主要权重的排名算法并落实到位……

三、责任承担——“黑箱”攻防

对于算法的使用者来说,“黑箱”是免责(或者说逃避责任)的利器,仿佛人工智能真的具有智能可以承担责任一样。机器学习“黑箱”的法律最大的挑战,可能在于对因果关系的重新构建,让因果关系可能不再局限于法律主体之间。有观点认为如果机器学习的行为没有办法被预见,那么机器学习导致损害的责任也没有办法进行分配。大量基于科幻电影的法学研究喜欢赋予人工智能或是机器人所谓“人格权”,以解决责任承担的问题。

但当真如此吗?“黑箱”虽然可以阻断因果关系,但并不会成为可以不承担责任的理由。从大陆法系侵权法的角度,黑箱所带来的因果关系不明并不是什么严重问题。法律意义上的因果关系不是哲学意义上的因果关系,更不是佛教中的“因果”。法律上的因果关系是指行为与结果之间决定与被决定,引起与被引起之间的关系。

根据相当因果关系说的理论

事物之间的因果关系是事物普遍联系和相互制约的反映形式之一,它是客观的,独立于人们的意识之外的,它不依人的意志为转移。但是人们对因果关系的认识,是要受制于人类的知识水平的。事物之间联系的复杂性、人类认识能力的有限性、信息占有的不完全性等等,使得人们不可能完全认识事物之间的因果关系。从而,人们对特定事件之间的因果联系的判断也只能是在现有的认知条件和信息状况下,对因果关系作出一个大致的判断。因而,因果关系的认定就不完全是一个逻辑推演的过程,而只是一个可能性的判断过程。

即使是无法识别责任,从保护被害人的角度,也可以使用举证责任倒置这一利器。

四、算法之争:今日头条诉百度案

在2018年,还有一个颇为有趣的案例——“今日头条诉百度不正当竞争案”。今日头条称接到用户举报,在百度搜索“今日头条”相关内容,排序第一的搜索结果,是由百度“百家号”发布的今日头条被要求整改的文章。排序第二的搜索结果,是“今日头条官网”,却用红字标出警告:“提醒:该页面因服务不稳定可能无法正常访问。”

百度方面则认为:百度的自然搜索结果排序,与用户需求、相关性、时效性、用户的点击行为等一系列因素相关。“今日头条指责的‘旧闻’搜搜结果与今日头条近期因内容低俗被相关部门处罚整改的社会热点密切相关,也与用户寻找多样化的资讯类app需求相契合,因此排列靠前不足为奇。”

《反不正当竞争法》

第十二条 经营者不得利用技术手段,通过影响用户选择或者其他方式,实施下列妨碍、破坏其他经营者合法提供的网络产品或者服务正常运行的行为:

(一)未经其他经营者同意,在其合法提供的网络产品或者服务中,插入链接、强制进行目标跳转;

(二)误导、欺骗、强迫用户修改、关闭、卸载其他经营者合法提供的网络产品或者服务;

(三)恶意对其他经营者合法提供的网络产品或者服务实施不兼容;

(四)其他妨碍、破坏其他经营者合法提供的网络产品或者服务正常运行的行为。

我刚才搜了一下,案件似乎还没有开庭的迹象。这个案件有意思的地方,在于今日头条提供初步证据的情况下,法院会如何认定搜索算法这种“技术手段”,是要求百度解释算法?还是直接追究百度使用算法的责任?无论结果如何,都会具有深远的影响。

五、没有结论

这篇小文章只是阶段性的一些思考,本来想一鼓作气写一篇论文,但总是心有余而力不足,遂先记录下些许想法,待时机成熟再扩充了。

对于算法的法律问题,早已经超越了算法能否申请专利这样的“简单”问题。当算法在我们生活中所扮演的角色越来越重要,我们的决策越来越依赖算法,那么责任的承担,因果关系的建立都成为了法律需要直面的问题,或者这都不是问题。我不知道,也没有答案。只是感觉算法的法律问题思考下去会是一条颇为有趣的旅途,尽管终点未必会如预期,但路途两边的风景已经足够美丽。

发表评论

电子邮件地址不会被公开。 必填项已用*标注