(一)私法自治虚无化与未成年人保护碎片化
个性化推荐算法会影响用户的自主决定自由。在大数据时代,一些个人或组织通过对个人信息的分析,评估个人的健康、收入、喜好等个人特征,进而精准化地影响个人的“选择”。算法影响下的同意机制一方面在事实上使得企业享有更大的权力扩张自由,另一方面却在侵蚀私法自治。
面对这一挑战,《民法典》规定的意思表示瑕疵制度无力救济被操纵的用户。以欺诈与重大误解制度为例,其一,个性化推荐未必具备欺诈制度要求的违法性。若个性化推荐活动并不具备违法性,则难以被认定为民事欺诈。其二,重大误解制度并不规范因个性化推荐产生的动机错误。私法自治因而有被侵蚀的危险。此外,算法对我们的行为、习惯和观点的影响可能在青少年阶段就已经开始。然而,现存的相关法律均忽视了未成年人特殊的算法保护需求。
(二)“过滤泡泡”“信息茧房”与“回音室”效应
个性化推荐算法本质上是一种信息自动过滤和分发工具,其又被称为“过滤泡泡”和“回音室”。长期生活在封闭信息环境中的用户将无法从多元化的环境中汲取养分,影响良好的价值观念和健全人格的形成。另外,在流量利益的驱动下,新闻平台可能会借助个性化推荐算法把价值导向变为流量导向,导致人们忽视公共议题。对此,监管部门虽已认识到了问题的严重性,但目前相关部门颁布的规定仅表明了其规范欲望,并没有清晰地指出规范策略。
(一)保障个人知情权的算法告知义务
个人信息处理者负有向算法相对人告知算法基本情况的义务。为具体化算法告知义务,《算法推荐管理规定》第16条明确了算法披露的具体内容。但对此条的适用不能过于僵化。一方面,算法使用人并非必须严格按照《算法推荐管理规定》第16条进行说明,法律应当允许算法使用人提出适当的抗辩;另一方面,《个保法》第17条第1款第2项规定的告知义务并非仅限于《算法推荐管理规定》第16条的规定,其并非是对告知义务的封闭式列举。
首先,算法告知义务不排斥算法使用人以保护知识产权为由提出抗辩。对算法推荐服务的基本原理、运行机制等信息的披露不能侵犯算法使用人的知识产权。其次,算法告知义务至少还应包括告知算法相对人对其可能造成的影响。如果算法使用人采取了专门的防范算法风险的设计,也应一并告知算法相对人。
(二)强化个人决定权的算法应用拒绝权
《个保法》第24条第2款规定了针对个性化推荐算法的算法应用拒绝权,通过强化个人的决定权来实现个人自治。第一,算法规范的目标在于要求商家不得收集、分析用户的数据,个人有权拒绝算法使用人使用个性化推荐算法处理个人信息,确保个人自治的实现。第二,算法应用拒绝权不能被同意撤回规则替代。“知情同意规则”虽是个人信息处理中最重要的合法性规则,但当算法活动符合其他合法性事由时,算法使用人无须征求个人的同意,并没有同意撤回规则的适用余地,即同意撤回规则不足以保护算法相对人免受算法的影响。可见,算法应用拒绝权和同意撤回规则,前者可以补强后者,二者协力捍卫个人自治。
(一)特殊场景下个人自治的困境
《个保法》意图通过权利义务模式增强个人的自治能力,然而,知情权与决定权的实现都依赖于个人基本的判断能力与决定能力。在一些场景中,个人并不能有效地识别风险和控制风险,法律需要采纳行为规范模式,以补充个人自治模式的不足。以未成年人保护问题、“过滤泡泡”“回音室”效应问题为例,首先,未成年人未必具备权衡算法利弊的认知能力与决定能力。为保护未成年人免受个性化推荐算法的不当影响,法秩序有必要直接规范针对未成年人的算法设计。其次,算法精准分发新闻,个人很难理性地拒绝这种“投其所好”的行为。因此,对新闻媒体个性化推荐活动的规范同样不能寄希望于私人自治。
(二)针对算法设计的行为规范模式
在未成年人保护、新闻推送等特殊场景中,个人自治模式没有开展的余地。算法工程师应在设计阶段就将保护的需求纳入程序之中。对于未成年人保护,法秩序不宜采取简单的禁止性立场,而是应规范针对未成年人的个性化推荐算法的内在设计。首先,在没有实名验证身份与年龄的情况下,算法工程师应当将个性化推荐算法设置为关闭状态。其次,算法工程师应通过未成年人模式、敏感文本过滤等方式,防止推荐的信息有损未成年人的身心健康。此外,算法使用人还应采用算法风险评估、敏感文本过滤和报告,以及一定程度的人工审核等方式,防止个性化推荐算法对未成年人产生不利影响。最后,算法工程师应将“防沉迷”的目标融入算法设计之中。
对于新闻推送,算法使用人应将法律目的融入技术体系之中。首先,新闻个性化推荐算法自设计之初就应注意推荐多样化的资讯。此外,我们还可以通过组合不同类型的推荐算法来实现新闻多样化,此即混合推荐系统。其次,算法工程师在设计算法之初就应避免过滤重要新闻。最后,算法工程师应将阻断假新闻传播列为设计目标。此外,个性化推荐算法自身也应包含识别虚假账号、虚假信息的必要设计。
对个性化推荐活动的规范还需要自上而下的监管。首先,在个人行使权利时,存在需要监管机关回应个人的投诉或举报的情形。其次,针对算法设计的行为规范路径的实现完全依赖于监管。在个人自治维度之中,个人可以提起民事诉讼。在行为规范维度之中,如果没有外部的检查和监督,我们根本无法判断算法设计者和算法使用者是否遵守算法设计的合规性要求。借助平台规范算法活动的模式就是个性化推荐算法治理的主体规范之维。
(一)行政机关直接监管算法的局限性
《算法推荐管理规定》尝试通过赋权行政机关来规范算法活动,而《个保法》第58条则创设“守门人规则”,借助对平台既赋权又施加监管的方式规制平台内的个人信息处理活动,属于个性化推荐算法治理的主体规范之维。就《算法推荐管理规定》所似乎采纳的路径而言,让行政机关直接管理算法活动可能超越了行政机关的能力。在知识社区和业内其他平台不断涌现新算法、新应用的情况下,人力资源和时间成本有限的行政监管很可能鞭长莫及。
(二)守门人规则确立的算法间接治理模式
《个保法》第58条要求超大型平台履行更为积极的信息安全义务,由此建立了有别于直接监管的间接治理模式。通过要求平台经营者承担守门人职责,更具效率的算法间接治理模式得以实现:国家管控平台经营者,平台经营者管控平台内的活动。
(三)平台应尽最大努力规范个性化推荐活动
一方面,为平台赋权意味着平台经营者应更积极主动地有所作为。法律应重视平台的组织属性,提升对平台经营者的义务要求。《个保法》第58条第2款要求平台经营者制定平台规则,明确平台内产品或者服务提供者处理个人信息的规范和保护个人信息的义务。产品或者服务提供者使用个性化推荐算法处理个人信息的,同样应当接受平台经营者的监管。平台经营者应当努力优化平台内的个性化推荐算法。
另一方面,守门人规则还意味着平台经营者应自证已经采取最大的努力规范平台内的算法活动。“守门人”规则并非意味着平台要全面监控平台内的活动,平台的权力还应受到一定程度的限制。对此,我们或许可借助正当程序规则、实体正义标准实现对平台“私权力”可能之滥用的规范。
欲规范复杂的算法活动,应综合运用各种维度,发挥制度的聚合效果。个人自治之维强化算法使用人的义务与算法相对人的权利,不应被法秩序抛弃,但其还需要其他维度提供必要的支撑。对个性化推荐算法的规范应拥有行为规范之维与主体规范之维。行为规范之维是规范算法设计的维度,强调从设计层面直接规范算法研发活动,将保护需求纳入技术体系之中。主体规范之维则强调通过为平台赋权的方式实现算法的间接治理。只有综合多种维度的算法治理,才能兴利除弊,使得个性化推荐算法变成“正常的商业活动”。
(本文文字编辑颜佳怡。本文未经原文作者审核。本文为中国民商法律网“原创标识”作品。凡未在“中国民商法律网”微信公众号正式发布的文章,一律不得转载。)
文献链接:《个性化推荐算法的多维治理》
















