Facebook个性化推荐真的会限制用户视野吗?

近些年来,个性化推荐趁着大数据分析的东风,打开页面只针对你个人口味的订阅越来越常见。开发者的初衷本是减轻用户的搜索负担,使得他们更即时更准确地接受到自己想要的信息,然而即使是这样美好的初衷,质疑的声音也不绝于耳。

个性化遭遇“三大质疑”

1、“回声室效应”封闭用户视野?

过度个性化的推荐会引起“回声室效应”(echo chamber):根据算法的推荐,人们逐渐接收到的都是和自己意见相似的新闻与朋友分享的信息,持不同观点的人也逐渐形成愈发封闭的小圈子。

Facebook研究:个性化推荐真的会限制用户视野吗?
  埃利·帕雷瑟(Eli Pariser)在《过滤泡沫》 (Filter Bubble)一书中也表达了类似的忧虑:“这些个性化算法使得只有和人们的意识形态一致的信息才会被呈现,人们的视野越来越窄,可以接触到多元化信息的机会也越来越少。”

对于持不同政治观点的人们来说,这样的“过滤泡沫”会让人们越来越坚持自己的政治理念,拉大不同意识形态人群之间的差距,造成社会上政治观点的两极分化和矛盾。

2、个性化推荐到底准不准?

加入社交因素的产品原理上是为了增加信息分享信息、产品角度上则是提高黏度。

因此个性化推荐只是更适合Circa这类新闻形式的短阅读,对于RSS订阅用户的深度阅读,反而是一种破坏。此外智能算法不成熟也会导致过多无效信息干扰:导入社交媒体上的资料真能帮助更精准的推荐文章吗?

而“不智能”的用户个体也总有一些误操作。事实上我们在日常生活中也有这样的体验,有时候我们误点了某个商品或者新闻,过于智能的算法就会继续为我们推送相关的信息,而这些恼人的信息,本质上是不为我们需要的。

信息过载问题,还是未能解决,而且它同时也携带了副作用——漏掉意外信息。

企鹅智酷曾做过个性化推荐的调查,结果显示只有24%用户认为产品个性化推荐靠谱、相比于推荐技术,30%用户还是更相信自己:

Facebook研究:个性化推荐真的会限制用户视野吗?

Facebook研究:个性化推荐真的会限制用户视野吗?
  3、机器能否判断新闻价值?

假设一条新闻的public value=X,private value=Y,X越大的新闻,越依赖有经验的人进行运营,而无法进行个性化推荐,例如时政、重大突发新闻;相反的,Y越大的新闻,则越有可能进行个性化推荐,例如垂直行业新闻。

Facebook研究:个性化推荐真的会限制用户视野吗?
  然而因为新闻的本质还是更多的要服务于public value,而公共性与私人性大多数情况下是背离的,所以就算是垂直行业的新闻,也会有X>Y的情况,依然离不开人工推荐。

再来看读者,新闻资讯用户金字塔的基层是追求public value这部分用户,他们普遍较为懒惰且要求不高(单一的信息获取就足够,一般用户不会同时看多个门户新闻),但与此同时他们也害怕被时代抛弃,所以利用强大的人工运营提供X值大的新闻就可以满足他们90%需求。

金字塔顶端是有更多private value需求的用户,他们比较聪明且时间有限(所以专注在个别领域),有更强的自主意识(不满足于单一的feeding tube),所以从产品技术的角度可以提供给他们一些可以调节Y值的简单工具就可以了(例如RSS订阅)。而过于智能化的个性化推荐则不必要。

所以,新闻个性化推荐并不靠谱。因为一旦你认为你接受到的新闻足够有个性,那说明这些信息本质上没多大新闻价值。

Facebook的辩驳:用户自我选择比算法更危险

Facebook作为个性化推荐算法实践的先驱,尤为擅长采取特定算法来决定用户的信息源(News Feed)里各种信息的排列顺序,面对种种质疑,Facebook数据科学团队的研究者以1010万美国Facebook用户为大数据研究样本,给出了不同的回答。而此研究结果也发表在权威科学杂志《Science》上。

Facebook研究:个性化推荐真的会限制用户视野吗?
  反驳1 个性化推荐并不会真正把人局限在一个圈子里

在Facebook上,信息的流动是由人们的社交关系网决定的,朋友的政治观点很多时候也能够影响人们的观念。和很多政治博客不同,虽然在Facebook上也存在根据政治倾向抱团的现象,但朋友间仍存在意识形态上的差异。

Facebook研究:个性化推荐真的会限制用户视野吗?
  图为不同政治倾向的人在面对不同意识形态的接受比例

平均来说,每个Facebook用户的好友中,有23%的人和自己的政治意识形态相反。而人们接触到的他们朋友分享的信息中,平均有29.5%的信息来自于意识形态对立的一方。

这也就表明,人们在一定程度上是可以接受到对立面的信息的。

反驳2 即使出现差异化内容,用户也很少点进去

影响用户看什么的原因有很多,包括他们浏览网页的频次,与朋友互动的次数,以及在过去,用户通过链接进入其他网站的频率。研究在排序后发现,用户看兴趣外的内容的比例比预想的还要小。保守派实际看到的比他们朋友分享的要少5%,而自由派要少8%。

人们对文章链接的个人选择对他们接触不同意识形态信息的影响更大。在信息流里能看到的跨领域内容,对于保守派来说,点击者大约在17%,而自由派则在6%。总的来说,人们点击的信息中只有 24.9% 的来自于对意识形态对立的一方。在自我选择的信息中,他们更倾向选择接受和自己观点一致的信息。

Facebook研究:个性化推荐真的会限制用户视野吗?
  图为自由派和保守派面对不同的信息来源的接受差异

从心理学角度来说,这种情况属于“自我验证偏好”(confirmation bias)。它使得人们有一种根据自己已有观点来接受和解释信息的倾向,这种倾向导致人们常固守于已有的观点。为了验证自己已有的观点,人们往往依赖于支持性的证据,并只搜索、解释和回忆与自己信念或假设一致的信息。

Facebook研究:个性化推荐真的会限制用户视野吗?
  最终Facebook的研究结论表明,人们对信息的自我选择和自我验证,可能比个性化算法更加危险。从另一个角度来说,这项研究也证明现代信息技术对人们观点的影响并没有先前人们设想的那么悲观。算法并非“过滤泡沫”的罪魁祸首,人们的自我验证偏好才是人们接触异己信息的最大障碍。

个性化大势所趋,技术仍需完善

Facebook研究:个性化推荐真的会限制用户视野吗?
  不过该研究发表后,一些反对者认为,这一研究是 Facebook 的“洗白”文,实际是一个“这不是我们的错”(“it’s not our fault”)类型的研究,其解读并没有落在社交网络的算法是否会加剧人们的偏见上。早在2014 年 6 月,Facebook 发表在 PNAS 上的一项情绪研究中, 就在用户不知情的状况下,调整了他们动态消息上来自好友的帖子,以测试正面或负面信息的情绪传染力。

然而,不论Facebook的研究是否为“洗白文”,个性化推荐仍是大势所趋,顺应大数据浪潮是互联网必不可少的选择。这项研究也提示我们,想要为人们提供更平衡全面的新闻信息,开发与社会信息有关的算法仍任重道远。算法的先天缺陷也需要更优的解决方案,不论技术如何发展,人工筛选也是无法省去的成本。