Facebook极端主义言论盛行,“打标签”就能解决吗?
Facebook被设计成一个公开讨论的场所,人性导致了这些讨论往往会激烈和两极分化,而Facebook选择了相对宽松的方式来管理这种分化。因为高管们认为,世界受益于喧闹的、几乎不受限制的讨论,也因为他们不相信这些讨论正在分裂国家。
本文来自微信公众号:新浪科技(ID:techsina),编译:李明,头图来自unsplash
据外媒报道,正是Facebook自家的算法推荐才导致Facebook平台上极端主义内容的盛行,而Facebook高管自2016年就了解此事,但并未采取有力的措施。
《华尔街日报》本周二发表了一篇文章,报道了Facebook自2016年以来抗击极端化的努力。这篇报道基于Facebook内部文件,以及对现任和前任员工的采访,详细地描述了Facebook是如何通过各种途径来阻止平台上分裂内容的传播。但在许多情况下,Facebook却拒绝了致力于解决该问题的员工们的建议。
文章称,在Facebook上加入极端组织的人群中,超过60%是因为Facebook的算法推荐所导致,包括高级副总裁乔尔·卡普兰( Joel Kaplan)在内的Facebook高管自2016年就知道该问题,但却扼杀了解决这一问题的努力。
文章指出,Facebook在2016年进行了一项研究,发现该平台上的极端主义内容和团体的比例高得令人担忧。Facebook研究员兼社会学家莫妮卡·李(Monica Lee)当时在一次演讲中称,超过1/3的德国大型政治Facebook群组存在大量极端主义和种族主义内容。
莫妮卡·李还发现,当Facebook用户加入极端主义组织时,近2/3(64%)的时间是由Facebook的算法推荐的,这意味着该网站自己的推荐系统在社交媒体用户中“加剧了极端主义问题”。
文章写道:
Facebook在2018年的一张幻灯片上写道:“我们的算法利用了人脑对分裂的吸引力,如果任其发展,Facebook将向用户提供越来越多的分裂内容,以努力获得用户的关注,并增加在平台上的停留时间。”
解决这种极端化问题是非常困难的,需要Facebook重新考虑其一些核心产品。其中最值得关注的是,该项目迫使Facebook考虑如何确定“用户参与度”的优先顺序。“用户参与度”是一项涉及停留时间、点赞、分享和评论的指标,多年来一直是其系统的指路明灯。
对于上述描述,首先要说的是,“极端化”可能意味着很多事情,这可能会让关于Facebook在这个问题上的贡献的讨论变得困难。从狭义上讲,可以谈论充满党派情绪的新闻推送(news feed)可能会导致国家分裂的方式。同时,也可以将其作为一个笼统的术语,来谈论Facebook和其他社交网络最近所称的“平台完整性”相关的举措,例如,消除仇恨言论,或者给错误信息贴上标签。
关于“极端化”要说的第二件事是,虽然它有很多负面影响,但需要考虑的是,你提出的替代方案是什么。如果你是一家科技公司的CEO,那么这个问题就会涉及到“对抗”极端化的挑战:即使你把它视为敌人,也不清楚你会用什么标准来团结你的公司来应对它。
不管怎样,Facebook对《华尔街日报》的这篇报道反应非常沮丧。负责相关事务的Facebook高管盖伊·罗森(Guy Rosen)周三发表了一篇博客文章,列出了该公司自2016年以来为对抗“极端化”所采取的一些措施。
这些措施包括改变新闻推送,使其包含更多来自朋友和家人的帖子,而不是出版商的帖子;启动一个事实核查计划;通过机器学习系统和内容审查队伍,更快地检测仇恨言论和其他恶意内容;从算法推荐中删除违反Facebook政策的群组。
罗森在这篇博客文章中称:
我们已经采取了许多重要的措施,来减少可能在我们的平台上导致极端化的内容数量,有时是以牺牲收入为代价的。这项工作永远不会结束,因为归根结底,网络话语是社会的延伸,而网络话语又是高度极端化的。但我们的工作是减少极端化对我们产品体验的影响,我们正致力于做到这一点。
据Facebook内部Workplace上的一篇帖子,Facebook对这篇报道感到沮丧的原因之一是,Facebook花了“几个月”的时间与《华尔街日报》的记者讨论这一发现。Facebook让公司多名高管进行公开和非正式的交谈,其中包括负责全球公共政策的卡普兰。
不管怎样,关于这篇报道和Facebook的回应,有两件事值得一提。首先,Facebook对极端化的看法存在内部紧张。其次,要求Facebook解决分裂(极端化)问题,可能影响Facebook解决其他问题的注意力,包括阴谋论、错误信息和仇恨言论的病毒式传播。
关于内部紧张问题,一方面,文章所描述的Facebook与极端化作斗争的举措都是真实存在的。在过去的几年里,Facebook在平台完整性方面投入了大量资金。而且,正如一些Facebook员工所说的那样,Facebook有充分的理由不去实施团队提出的每一个建议。
例如,有些努力可能没有已经在实施的其他努力那么有效,或者它们可能会产生意想不到的负面后果。显然,团队中的一些员工觉得他们的大多数想法没有被采用,或者被淡化了。但许多公司的许多团队都是如此,这并不意味着他们所有的努力都是白费的。
另一方面,Facebook的高管在很大程度上拒绝接受,该平台在分裂国家层面上存在极端化的观点。事实是,在许多大国,Facebook在那里的使用率很高,但极端化正在减少,这有助于解释为什么Facebook高管没有把这个问题放在首位。
因此,这样一个案例表明,Facebook在平台完整性方面可能是“正确的”,而《华尔街日报》在更大的层面上是正确的:Facebook被设计成一个公开讨论的场所,人性导致了这些讨论往往会激烈和两极分化,而Facebook选择了相对宽松的方式来管理这种分化。之所以这样做,是因为高管们认为,世界受益于喧闹的、几乎不受限制的讨论,也因为他们不相信这些讨论正在分裂国家。
本文来自微信公众号:新浪科技(ID:techsina),编译:李明
相关推荐
Facebook极端主义言论盛行,“打标签”就能解决吗?
推特创始人被盗号,黑客报复性发表仇恨言论
Facebook真的“大而不倒”吗?
5G与新冠病毒无关 Twitter给相关错误言论“打标签”
最前线 | Facebook假新闻治理新进程,今秋将推出“新闻标签”
Facebook AI是怎么将恶意发言者踢出群聊的?
Facebook非拆不可吗?
facebook在法同意将仇恨言论嫌疑用户信息交给法官
超过800家公司联合抵制Facebook 要求平台控制仇恨言论
Facebook、YouTube都会遇到的内容审核难题,今日头条是怎么解决的?
网址: Facebook极端主义言论盛行,“打标签”就能解决吗? http://www.xishuta.com/newsview23975.html
推荐科技快讯
- 1问界商标转让释放信号:赛力斯 94953
- 2人类唯一的出路:变成人工智能 19253
- 3报告:抖音海外版下载量突破1 18966
- 4移动办公如何高效?谷歌研究了 18490
- 5人类唯一的出路: 变成人工智 18351
- 62023年起,银行存取款迎来 10127
- 7网传比亚迪一员工泄露华为机密 8182
- 8顶风作案?金山WPS被指套娃 7096
- 9大数据杀熟往返套票比单程购买 7045
- 10五一来了,大数据杀熟又想来, 6865