Press "Enter" to skip to content

重磅热议!事关短视频版权

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

 

 

作 者丨诸未静

 

编 辑丨吴立洋

 

图 源丨图   虫

 

今天是第22个世界知识产权日,4月23日,由中国社会科学院大学互联网法治研究中心主办的 “算法推荐与着作权侵权平台责任” 研讨会在线举行,来自清华大学、华中科技大学、中国政法大学、华东政法大学、浙江理工大学、各级法院及实务机构的二十余位专家参加了此次研讨会。

 

中国社会科学院大学副校长、教授、互联网法治研究中心主任林维在致辞中表示,欢迎各位专家围绕知识产权领域的案件进行深入的讨论,实现学术研究、业界和司法实践的对话。

 

与会专家围绕 “算法推荐技术的原理与特点”“算法介入与网络服务提供者的责任认定”“算法对平台注意义务的影响” 等议题展开广泛、深入的探讨。研讨会由社科大互联网法治研究中心执行主任刘晓春主持。

 

 

算法推荐技术:“一个只认识很多字符的小学生”

 

要探讨算法推荐与着作权侵权的平台责任,首先得先理解算法推荐技术的原理与特点。

 

清华大学交叉信息院教授、博士生导师唐平中从推荐系统和推荐算法两个方面来展开介绍。他表示,推荐系统是将推荐算法进行落地的信息系统, 这个系统运行的第一步是“算法过滤”,即初筛,作用是过滤掉色情、暴力内容。

 

内容经过算法过滤之后就进入推荐池。他指出此时有两种视角可以介入观察:

 

从 用户的角度 来看,用户一登录短视频平台,平台就会给你展现一池子内容。

 

而从 视频的角度 来看,一个视频进入到推荐池子中,一般大的系统是保证最小的曝光量,而这个曝光量是经过一些相关性计算的:“比如用户A是不是推荐这个内容B,他是看与A相似的人是不是看过内容B,而且是不是完播,是不是点赞,这些都会考虑在内。如果B是与A相似的人喜欢看的内容,它就会给A进行内容B的推荐。

 

他进一步解释,假设一个视频保证最少有500次的曝光,最少推500个人,系统会看这500个人对这个视频的Reaction(反应),他到底喜欢还是不喜欢。如果这500个人压根就不喜欢,那这个视频就沉默在整个内容的大海里。

 

如果这500个人对这个视频反应还是可以的,超过了系统判定的域值,可能有五分之一的用户完播了,观看了5秒或10秒。此时这个视频就可能进入人工审核队列。而在这一环节中,就目前的技术能力而言,算法是没有办法做到深层违法,比如内容是否侵权的判断的。

 

“这就是整个推荐系统的逻辑:一层是算法审核,一层是相似性计算,一层是反馈收集,最后一层是人工审核。”他总结表示,基于这个逻辑,需要强调两点:一是基于一个用户和一个视频间的关系测算,放在6亿日活用户和每天10亿的视频内容之间,其相似性计算就不太可能做到基于特别细的一些标签,基本上还是通过用户之间的相似性来进行推荐。具体到影视剧上,推荐的标签最多是细致到古装剧、喜剧这个维度,而不会针对某一个具体的篇名或者影视公司来做这个件事。

 

“而且即便你在评论中抽取到了盗版影视剧的名字,系统对这个东西也是不理解的。”他具体解释了推荐系统的理解能力,比如#这个杀手不太冷静#和#古装剧#这两个标签,推荐系统的理解能力是没有区别的,只是储存的两个字符串。

 

“你可以把算法推荐系统理解成一个认识很多字符的小学生,它可以认识一个片名,但是不理解这是什幺意思。”唐平中进一步形象地解释。

 

 

算法对平台注意义务的影响: “老式火车边跑边喷火,把路边的农作物烧伤了,是否需要赔偿?”

 

在厘清了一些有关算法系统的基本技术原理和难点之后,中国政法大学比较法学研究院教授刘文杰提出疑问 ,基于当前的技术发展水平,是否有可能在算法推荐的系统中再加上过滤算法?其中的技术难点何在?

 

唐平中解释称,算法推荐相当于是为活跃的用户找相似——找到与他类似的用户感兴趣的内容。而过滤则是判断一个视频的高阶语义内容,而这其实是无法在大规模推荐系统中实现的。举例而言,比如需要过滤一个电影在平台上所有的盗版内容,则需要针对所有的这些视频做一次专门的标注,需要一个团队三十人一个月的工作量。标注完成以后又要进行分类训练,而这种训练不同于推荐算法,是机器学习中专有的算法。

 

经过漫长的训练之后,可能达到百分之八九十的准确率,但是放在线上实际操作中依然是不合适的,因为整个推理的过程很慢,需要好几秒才能出结果,“这是当前算力也好,技术可行性也好,做全量的内容深度语义的审核是不存在的,但是你如果说要做浅度语义的审核,比如说暴力、涉黄这是可以做到的,而且现在一些主流系统已经做到了。”

 

如今谈到算法过滤,一般包括两种方式,一种是从内容识别的角度来专门标注,另一种方法是外部识别,比如通过标题过滤。唐平中认为,平台和内容创作者也是一个“猫鼠关系”,十部短视频中可能九部都是没有片名作为标题的,很难从某一帧中读取到标题。

 

基于这些探讨,中国政法大学比较法学研究院教授刘文杰在《算法推荐与版权合理注意义务》的主题分享中表示,推荐算法与内容过滤算法并不相同,不能从精准的算法推荐直接得出推荐算法也可以用于内容过滤并在防范侵权中发挥同样强大作用的结论,不能认为,拥有良好的推荐算法也必然能够轻易开发出有效的内容过滤算法。他认为,对于算法推荐服务商的版权注意义务,要结合平台的商业模式、技术能力、个案情况,依照过错认定的一般原则加以合理确定。

 

华中科技大学法学院副院长、教授熊琦在介绍算法介入与网络服务提供者的责任认定时也指出,从背景上来看,对网络服务提供者的侵权责任认定,一般借鉴的模板是1998年美国《数字千禧年版权法案》(DMCA)所创设的“避风港规则”。不过随着时代发展,目前互联网用户每天发布数以亿计的视频、照片、录音甚至其他的作品,原来的“通知删除”规则,包括现在的“通知必要措施”规则,导致无论是权利人还是网络服务提供者,都承担着越来越大的压力和成本。

 

如今,有观点主张平台要事先履行对侵权内容的过滤义务。华东政法大学知识产权学院副教授陈绍玲认为,过滤义务并非法定义务,是否采取过滤措施与注意义务相关,具体要考虑过滤措施是否可行,成本和效益是否适当。他用一个简单的例子解释,比如老式火车边跑边喷火,把路边的农作物烧伤了,是否需要赔偿?法官最终认为,火车在技术上难以做到措施防止火花的喷射,但农作物的所有权人把作物搬离铁轨更为可行,因此就作物的损失不能苛责火车司机,火车公司没有过错,不需要赔偿。

 

 

如何理解“平台越大,责任越大”?

 

网络平台算法推荐的过错认定

 

在网络平台算法推荐的过错认定议题上,多位专家援引了浙江省高级人民法院民三庭在《涉电商平台知识产权案件审理指南》第24条指出的内容,如果是人为推荐,应当承担较高的注意义务;如果用自动化技术也即算法推荐,一般情况不导致其注意义务水平的提高,但这种情况电商平台要承担举证证明责任。

 

浙江理工大学法政学院特聘副教授、网络法研究所执行所长郭兵认为,浙江省高院的审理指南可以说是充分考虑了促进电商行业健康发展与保护权利人合法权益之间的利益平衡:

 

一方面,电商平台算法推荐商品或者服务,并不意味着平台就存在知道或者应当知道侵权的主观过错,这相对而言更有利于促进行业健康发展;

 

另一方面,电商平台应当就其算法推荐的合理性承担举证责任,又合理地分配了电商平台和权利人的举证证明责任,这相对而言也有利于保护权利人合法权益。

 

他进一步指出,浙江省高院的审理指南区分人为推荐和算法推荐的规则设置具有相对合理性,值得其他地方参考;当然,算法推荐合理性的举证责任将会成为一个挑战性难题,合理性的具体认定标准还需要在今后的司法实践中不断明确。

 

刘晓春以“算法推荐与平台行为属性界定”为主题,讨论了平台行为应该属于构成内容提供者直接责任的直接行为,还是属于构成帮助侵权责任的帮助侵权行为,同时在认定帮助侵权的基础上讨论算法是否强化平台在主观方面的注意义务。她认为,由于算法有各种各样的功能,它会变成什幺法律属性,根据不同的算法可能会有不同的结果,而算法本身不会因为处理了内容而一般性地增强侵权识别能力。对此,她指出,可能在不同的场景下,我们原有的法律规则、司法应用,并没有一概认为算法会增加平台的注意义务。

 

同时,她建议可以把现有的算法解释和算法治理透明度的规定,比如行政法规和行政规章里面算法合规的要求,嫁接到司法实践当中, “平台对算法备案和算法解释评估的时候,可以将算法设计的原理在公权力系统中进行备案,未来作为初步的证据,通过所谓的尽职免责规定,把算法合规治理和个案中的算法问责结合起来。”

 

而针对“平台越大,责任越大”这个观点能否成立,各位专家在自由讨论环节中,就网络法中的能力与责任问题展开讨论。

 

清华大学法学院教授崔国斌认为,他所理解的“能力越大责任越大”前提在于,该能力与识别和预防侵权行为有直接关系,即平台采取措施识别出侵权行为的能力显着提升或成本下降。内容中立的推荐算法的应用与这一能力的提升并无直接关系,因为推荐算法的工作并不以识别出相关内容是否处于侵权状态为基础,也没有提升服务商在这一方面的能力。当然,如果人工浏览了相关内容再推荐,则另当别论。很多人提到平台有应通知进行内容过滤的可能性,因此认为算法推荐也增加的服务商的责任。这明显是混淆了内容过滤和算法推荐这两个环节的问题。平台可能有能力应通知进行内容过滤,并不意味着平台的推荐算法本身提升了平台的识别侵权能力,进而要为这一能力承担更多责任。“平台通过推荐算法让很多内容具备很大的扩散能力,这个本来社会应该鼓励的,一个作品发了半天没人看,但是通过推荐能够让我很快的名扬海外,对社会而言当然是应该值得鼓励的事情。如果因为平台推荐了之后后面的传播速度非常快,非常有效,因为平台有获利、平台的危险很大,法律就要让平台在收到侵权通知前,采取人工措施把这个作品都审核一遍然后再决定是否进入算法推荐程序。这类人工措施的成本过于高昂,同时也会让所有用户都要等待平台审查作品上传,降低传播效率,对社会造成损害。相对而言,我们不认为,因为平台有内容中立的算法推荐措施,所以让它采取额外措施识别侵权内容是合理的。”中国政法大学的刘文杰老师持同样观点。

 

“在确定特定领域平台注意义务的时候,实际上是基于不同问题的价值判断和优先顺序的取舍,结合可能给产业带来的成本和收益进行权衡。如果一般性地要求采用算法就会提高注意义务,那可能会造成行业成本的一刀切式提高,如果程度过高比如要求前置审查,甚至可能形成市场进入壁垒,这又会涉及到新业态产业发展相关的营商环境建设问题。”刘晓春总结道。

 

 

Be First to Comment

发表评论

您的电子邮箱地址不会被公开。