算法|面对海量信息,算法推荐如何守好边界

【资政场】
人工智能、大数据的广泛应用 , 给互联网平台带来了自动化的算法技术 。一方面 , 互联网平台利用算法技术对网络内容提取特征并进行识别 , 通过打标签的方式向网络用户提供文学、音乐、视频等;另一方面 , 互联网平台利用算法技术 , 对网络用户的生活规律、阅读习惯、消费偏好等信息进行抓取分析 , 向网络用户精准推荐相关内容 。算法应用给经济社会发展注入了新动能 , 同时 , 算法歧视、“大数据杀熟”、诱导沉迷等算法不合理应用也导致了一系列问题 。
日前 , 国家互联网信息办公室等四部门联合颁布了《互联网信息服务算法推荐管理规定》 。该规定从公共利益和保护消费者着眼 , 明确算法推荐给用户打标签不得包含违法信息 , 有助于促进算法推荐服务健康发展、提升监管能力水平 。但如果算法推荐的内容中包含了涉及第三人权利的信息 , 该第三人权利如何获得保障 , 规定中并未涉及 。为维护互联网生态 , 平衡互联网平台与权利人、用户之间的关系 , 在确立互联网平台算法推荐中的义务时 , 应当合理把握技术中立、法律规则的弹性解释等 。
普及推广互联网平台的过滤技术 。互联网平台在自动推荐内容时 , 一般根据用户的阅读、欣赏习惯 , 通过关键词等向用户提供 。平台企业后台的信息抓取、信息分析能力越强 , 用户获得的与之前阅读、欣赏的内容越近似 。如果这些内容是他人享有著作权的音乐、视频等 , 互联网企业就有可能承担间接侵权责任 。有的互联网企业会以技术中立为借口 , 声称其仅通过关键词等进行了自动识别 , 无法看到呈现在用户面前的内容 。为避免违法和侵权纠纷 , 应鼓励互联网平台采取算法过滤技术 , 建立健全用于识别侵权和不良信息的特征库 。与算法推荐类似 , 算法过滤通过识别功能可以有效过滤那些涉嫌侵权的文本或者视频 , 大大降低侵权风险 。除此之外 , 如果网络用户利用互联网平台 , 向其他用户自动推荐侵权物品 , 为避免自己的责任风险 , 互联网平台也可以利用算法过滤技术 , 辅之以人工干预机制 , 对网络用户提出警告 , 甚至对其采取其他处罚措施 。
科学解释互联网领域的通知规则 。从行为上看 , 互联网平台向用户提供的 , 要么是内容 , 要么是服务 。如果互联网平台向用户提供的是文本、视频等内容 , 而且这些内容如果侵权 , 互联网平台就构成了直接侵权行为 。如果互联网平台向用户提供自动存储空间、搜索、链接等技术服务 , 仅在主观上存在过错的前提下 , 承担间接侵权责任 。互联网的本质是连接 。为保证互联网行业的健康发展 , 民法典和其他民事法律规定了互联网企业的免责条件 。如果权利人向互联网平台发出了符合条件的通知 , 告知互联网平台上存有侵害其权利的作品 , 互联网平台及时删除了该作品 , 及时断开链接或者采取了其他必要措施 , 互联网企业就不承担法律责任 , 这就是互联网领域所谓的“通知-删除”规则 。随着算法技术的广泛应用 , 越来越多的第三方机构利用算法代表权利人向互联网平台发出侵权通知 。例如 , 创立于2011年的某科技公司 , 截至2020年11月 , 已监测发现4700多万条侵权链接 。为避免侵权风险 , 提供服务的互联网平台被迫采用算法技术对涉嫌侵权作品进行比对并删除 , 由此 , 互联网环境下的“通知-删除”规则变成了“算法通知-算法删除”规则 。有学者指出 , 在这种模式下 , 由于机器人之间的对话取代了人与人之间的对话 , 只能将互联网平台的算法系统对“算法通知”的接收 , “视为”平台的“知道” 。

推荐阅读