中文版  |  English  | 
>> 您当前的位置: 首页 >> 时评专论 >> 正文
  • 焦和平:如何规制算法私人执法的负面效应
  • 发布时间:2023/03/03 12:41:40 新闻来源: 本站 点击量:


利用“通知—移除”规则,以网络服务商代替公权力机构居中处理侵权纠纷被视为版权领域的私人执法。随着算法技术的应用,版权领域的私人执法模式从人工操作转向全程算法化,表现为查找侵权行为算法化、发送侵权通知算法化、处置侵权信息算法化、预防侵权发生算法化。私人执法算法化在极大提高执法效率的同时,也造成了对版权公共领域的侵蚀,主要表现为压缩“个人使用”空间、剥夺“适当引用”机会、阻碍“科学研究”开展、架空用户“反通知”权利等。造成上述负面后果的根源在于侵权认定的复杂性与算法技术的局限性以及利益驱动下算法执法机制被滥用。需要通过将版权公共领域考量植入算法设计中、在特殊情形下以人工审查辅助算法执法、完善过滤机制下的用户申诉程序、针对恶意通知行为规定惩罚性赔偿责任,来规制算法私人执法机制的滥用。

算法私人执法引发版权公共领域被侵蚀问题

在传统的版权法架构下,版权执法主要是指公权力机构对版权侵权纠纷的处理。在前互联网时代,由于侵权数量较为有限,因此依靠传统的公权力执法完全可以满足版权人的维权需求。但20世纪末迅猛发展的互联网技术所带来的信息暴增、网络盗版泛滥使得在人力、财力和手段上都较为有限的公权力执法模式面临严峻挑战。版权人开始在公权力执法之外寻求与网络服务商合作以共同打击网络侵害版权行为,并探索出遏制网络版权侵权的“通知—移除”机制。由于“通知—移除”机制具有低成本、高效率的优势,因此一经问世便迅速被版权人和网络服务商采用,于是以网络服务商代替公权力机构处理版权侵权纠纷的“私人执法”模式由此诞生,并相继被各国立法普遍确认。

随着近年来算法技术的广泛应用,数字化作品的版权保护越来越多地通过算法执行系统来实现:通过算法设计可以将发现侵权信息、提交侵权通知、处置侵权材料等交由智能算法自动完成,甚至利用自动过滤技术可以事先阻止涉嫌侵权信息上传至网络空间。

保护版权与维护公共利益都是版权法追求的价值目标,后者通过将特定信息留给社会公众自由免费使用这一机制予以实现。这些特定信息包括不适用版权保护的主题、未形成表达的思想、合理使用的对象、不具有独创性的表达以及超过保护期限的作品等,此即版权的公共领域。算法私人执法在高效处置侵权信息的同时,也往往将这些属于公共领域的信息错误地作为侵权信息予以处置,从而侵蚀了版权的公共领域。

算法私人执法侵蚀版权公共领域的几种情况

压缩“个人使用”空间

在版权私人执法算法化背景下,由于侵权信息的发现环节、处置环节和过滤环节全部由智能算法自动操作,这些操作通常采用“关键词匹配”的方式来识别侵权信息。但此种识别方式不会考虑个人使用情形,结果造成大量的错误匹配和过度匹配,使得个人的使用空间被极大压缩。

剥夺“适当引用”机会

在版权私人执法算法化的背景下,算法只关心监测对象与版权作品的内容是否有关联,不会考虑此种关联是否属于适当引用。戏仿、评论、同人制作、混剪视频、家庭庆典视频等音视频容易因背景音乐或画面的使用而被算法插标,遭到拦截,使得由法律保障的基于鼓励新作品创作的适当引用机会被剥夺。

阻碍“科学研究”开展

科学研究是推动创新发展和增进知识积累的重要途径,为此各国(地区)的著作权法均为基于科学研究目的使用作品开设绿色通道,将其规定为合理使用的主要类型。算法只关心监测对象与版权作品是否有关联,不会考虑此种关联是否属于正当的“科学研究”,因此使得为科学研究目的免费使用版权作品的机会经常被剥夺,妨碍“科学研究”的开展。

架空用户“反通知”权利

在一个完整的“通知—移除”私人执法机制中,网络用户并非只能被动地被版权人和网络服务商联合“执法”,其有权通过提交反通知(不侵权声明)方式获得救济,用以抗衡可能发生的错误执法。这也是法律为有效平衡版权保护与公共领域保留的精妙设计。但是算法过滤技术的采用使得“通知—移除”规则下的私人执法机制被极大地改变:一方面,它将发现侵权信息的义务由版权人承担转变为由网络服务商承担;另一方面,它将执法措施前置,即从原来的发现侵权信息后再进行处置的事后救济,转变为只要监测到欲上传信息与网络服务商事先建立的作品数据库相似程度达到一定比例就阻止其上传。

算法私人执法侵蚀版权公共领域的应对

将版权公共领域考量植入算法设计中

在版权私人执法算法化的背景下,移除通知的发出从人工操作变为自动化程序,由此就使得将版权公共领域因素事先植入算法设计中成为满足“善意相信”或者“初步审查”的必要步骤;相应地,是否在算法设计中植入版权公共领域考量也可以作为版权人证明其确实存在“善意相信”的证据。这一建议在技术上也具有可行性。目前算法的确定性不可能应对所有合理使用情形,但可以尝试在有限的范围内部署算法,随着语音识别、图像识别以及机器学习等诸多人工智能技术的发展,在自动化通知中通过算法设计准确识别侵权作品并考虑合理使用因素,具备技术上的可能性。

在特殊情形下以人工审查辅助算法执法

在算法设计中植入包括合理使用在内的公共领域考量并不能完全避免算法执法对公共领域的误判,由此使得在算法执法主导下,辅之以人工审查提高算法执法的可信度便显得尤为必要。但在实践中,人工监督或参与执法过程的情况很少且基本上都是敷衍了事,因此应强化算法执法主导下版权人和网络服务商的人工审查义务。

完善过滤机制下的用户申诉程序

在算法过滤机制下,网络用户向互联网平台上传材料之前需要经过网络服务商的算法筛查,如果筛查结果被算法标记为涉嫌侵权信息,那么无法上传至网络平台,此乃算法技术下版权私人执法的独有环节。这就间接剥夺了网络用户在“通知—移除”机制下的反通知权利。为恢复算法过滤机制下失衡的利益,应为网络用户提供针对可能的错误过滤进行申诉的程序设计。

对恶意通知行为规定惩罚性赔偿责任

在版权私人执法尚未算法化的人工操作时代,在实践中就经常发生版权人出于恶意竞争目的向网络服务商故意发出错误通知的情形。例如,有调查报告显示,在谷歌公司收到来自版权人的请求移除“侵权信息”通知中,有57%以上的通知是针对商业竞争对手发出的。虽然《中华人民共和国民法典》和《信息网络传播权保护条例》针对错误通知行为规定了损害赔偿责任,但是这种责任在性质上属于填平性和补偿性的,对于故意甚至恶意错误通知行为仍难以进行有效遏制和惩罚,因此建议针对恶意通知行为规定惩罚性赔偿责任。

第一,针对恶意通知行为适用惩罚性赔偿责任符合侵权责任法原理。就主观过错而言,恶意通知是行为人明知自己无权通知或者通知依据不足,但出于损害他人利益的目的仍然发出通知,主观恶意明显。就行为后果而言,恶意通知行为既损害了代表社会公众的网络用户的利益,也损害了网络服务商的利益。就社会危害性而言,恶意通知行为不仅给竞争对手和网络服务商造成了经济损失,而且破坏了诚实守信的社会竞争秩序。

第二,针对恶意通知行为的惩罚性赔偿责任在其他领域已经确立。《中华人民共和国电子商务法》第42条第3款针对恶意投诉行为规定了惩罚性赔偿责任,即“因通知错误造成平台内经营者损害的,依法承担民事责任;恶意发出错误通知,造成平台内经营者损失的,加倍承担赔偿责任”。

第三,针对恶意通知行为适用惩罚性赔偿责任也是落实中美贸易协议的体现。2020年1月15日,中美两国签署的《中华人民共和国政府和美利坚合众国政府经济贸易协议》第1.13条(打击网络侵权)第2款规定,中国应“对恶意提交的通知和反通知进行处罚”。2020年最高人民法院发布的《关于涉网络知识产权侵权纠纷几个法律适用问题的批复》第4条规定:“因恶意提交声明导致电子商务平台经营者终止必要措施并造成知识产权权利人损害,权利人依照有关法律规定请求相应惩罚性赔偿的,人民法院可以依法予以支持。”

第四,在算法执法背景下对“恶意”的认定,可以结合最高人民法院《关于审理涉电子商务平台知识产权民事案件的指导意见》第6条的规定,将其类型化为几种情形。


文章发布于2023年2月28日经济参考报

报道链接:http://dz.jjckb.cn/www/pages/webpage2009/html/2023-02/28/content_90710.htm


文字:法学院 焦和平