您的位置:   网站首页    行业动态    现实阴影照进虚拟社交,Facebook向极端主义“开炮”

现实阴影照进虚拟社交,Facebook向极端主义“开炮”

阅读量:3803528 2019-10-26


社交媒体作为信息传播的加速器,在让用户享受到更多便捷的同时,也让现实中的阴暗面信息在网络上的传播获得了更多机会。
 
一段时间以来,借助国外一些社交媒体平台,不少关于种族主义、恐怖主义、分裂主义等激进主张的言论,实现了和普通资讯一样的“在线发布”与“一键分享”——这引起了官方的注意,监控正在加强。
 
对此,社交媒体平台也不得不作出回应。上月,Facebook出台了一系列调整措施,宣布将对发布于平台的仇恨言论和极端主义内容进行限制。
 
本期全媒派(ID: quanmeipai)编译了《纽约时报》对此事的报道,详解 Facebook打击恐怖主义内容的措施,和大家一起探讨这些调整可能会带来的新趋势。
 

出于诚意 or 迫于压力?
Facebook配合打击极端主义,动作频频
 
9月17日上午,Facebook率先采取行动,宣布将进一步延展对“恐怖组织” 的定义,并计划部署人工智能战略,以更好地追踪和屏蔽关于枪击案的现场视频。
 
发布宣言的短短几小时后,Facebook又在发往议会委员会的信函中表示,将防止一些“边缘网站”链接里的内容被显示在自家平台上。当日晚些时候,Facebook又详细阐述了将组建一个包含11名成员的纠察委员会,来评估与审核一切平台内容方面的决策。
 
作为一家位于硅谷的公司,Facebook对外公布这些变化的时间十分微妙——第二天就是Google和Twitter两家公司就“如何处理平台上的暴力内容”这一问题被参议院商务管理委员会质询的日子。
 

自今年4月司法委员会召开听证会探讨技术平台在仇恨言论传播中所起到的作用之后,“极端主义的线上传播”这一话题,已经引起法律制订者们的高度重视。美国国会的两党制团体也向Twitter、Facebook和Youtube几家公司发函,就国际恐怖组织在社交平台上煽动仇恨一事表达质疑。
 
在限制煽动仇恨的信息(讯息、图片和视频)进行社交传播这方面,Facebook尤其面临着巨大压力。作为世界上最大的社交网络平台,Facebook聚集了超过20亿的用户,更坐拥主打图片分享的Instagram和讯息服务的WhatsApp两款应用。仅就平台规模和用户体量而言,Facebook确实具备使暴力内容在全球迅速扩散的能力。
 
一个有力的印证是,在此前发生的大规模枪击事件中,Facebook被利用为发送暴力信息的工具。今年三月,Facebook曾因为没能查验和删除新西兰教堂中51人被枪杀的现场视频而受到严厉的批评。而在美国境内,8月份发生于厄尔巴索的枪击案的作案计划曾被提前公布在一个名为“8chan”的网站上,而后在其他社交平台继续发酵——这其中就包括 Facebook。
 

“这些改变并不能让事情立即变好,”Facebook风险组织与个人政策部总监Brian Fishman在Twitter上表示,“要做的事情还有千千万万。”但他补充道,“Facebook在后台方面已经做了很多改进,希望在这些工作上提供一些思路。”
 

“透明戏法”又将上演?
专家学者:欢迎但持审慎态度
 
对于Facebook做出的努力,部分研究网络极端主义的专家表示欢迎——尤其对 “更广泛地定义恐怖主义”这一项。但他们也强调,这个方案的有效性还将取决于实施细节。例如,Facebook在实操中究竟如何设定“内容警戒红线”,以及能否坦诚汇报自己的工作成效。
 
“明确得知这些变更在实际中发挥出怎样的效果是十分重要的。在过去,我们已经看到很多次最初宣称的工作计划在实际执行中走形的情况。”在斯坦福大学研究极端组织的学者Becca Lewis如是说。
 

她还补充,Facebook不得不适应的情况是,当这些调整措施推行以后,消费平台内容的人将会变少,“这件事更为艰难,因为这会要求社交平台与自身的商业模式发生更激烈的对抗。”
 
Evelyn Douek是哈佛法学院的一名研究全球网络言论立法的博士,她表示自己期待Facebook在将来提供包含极端主义内容数据在内的透明性报告,以评估这些改变是否会带来较大的影响。
 
同时她也抱持审慎态度:“许多这一类报告,实际上都只是象征性的‘透明戏法’——它们提供了信息和数据,但这些公开内容并没有足够大的意义。”对于Facebook释放的积极信号,Evelyn Douek坚持表示,“在了解到他们究竟如何采取行动之前,我将始终不予评价。”
 

自由言论边界如何设定?
Facebook: 升级自身技术+引入外部纠察
 
长期以来,Facebook致力于提高对恐怖主义相关内容的检测能力。这家公司表示,在过去两年中,他们早在媒体关注之前就已经检测并删除了99%的极端言论内容——大约有2600万则。
 
不过,Facebook此前的行动大多集中在识别分裂主义者、伊斯兰激进分子和白人至上主义者等相关的组织团体方面。如今,与过去那种把“恐怖主义”定义为“通过暴力行为达到政治目的”的思路不同,平台会把注意力转向“有对平民实施袭击倾向的恐怖主义团体和个人”。

Facebook平台的恐怖分子
 
Facebook称,为应对这项打击网络极端组织的工作,他们已经组建了一个多达350人的团队,参与成员不乏法律执行、国家安全、打击恐怖主义方面的专家,以及研究激进主义的学者。
 
Facebook还表示已升级了人工智能系统以更敏锐地抓取第一人称视角枪击视频,从而更好地识别现实中的暴力场景。其正在与美国和英国的法律执行公署合作,从它们的枪炮训练项目中获取镜头,来帮助人工智能系统学习真实的、当事者视角的暴力事件是什么样子。
 

与此同时,为了将人们的注意力从极端主义内容中转移出来,Facebook正在大力推行一个项目——让搜索这些内容的用户被重新导入一些特定网站,以帮助他们远离屏幕另一端的仇恨团体。今年三月以来,Facebook已经把那些搜索“白人至上主义”相关名词的用户导向了“Life After Hate”(一家提供危机调停和其他延伸服务的组织)这样的网站。
 
在一封发给Max Rose(议院委员会智能与反恐怖主义小组委员会主席)的信中,Facebook还称,它已经“屏蔽了可以访问“8chan”和“4chan”这些站点的链接,正是这些链接助长了阴暗内容的扩散”,其中包括来自“8chan”臭名昭著的“政治不正确”版块(一个以传播暴力、种族歧视言论而闻名的网页)的所有内容。
在厄尔巴索那件导致22人死亡的枪击案发生后,“8chan”就被关闭了。该网站的创始者之一Fredrick Brennan在此之前就宣称,这次枪击发生后,网站应该被关掉。
 
“恐怖主义者将‘8chan’的链接发到Facebook 上,希望引起对大众对枪击案的广泛关注,这促使我很看重Facebook屏蔽这些链接的合作意愿。”Rose说,“国会、科技公司以及每一个人都需要采取更多行动来打击恐怖主义的蔓延,让社会更加安全。”
 

Facebook “8chan”站点的图标
而在Facebook内部,一年多以前,公司就已经特别设立了一个“纠察委员会”。 一般来说,委员会成员由公司的外部人员担任,组成Facebook的“最高法院”。 Facebook称,这个委员会由背景各不相同的专家组成,以三年为一个周期计算,每位专家最多只能服务9年。
 
这些成员将指导Facebook来处理平台上的内容——“通过”或“移除”——并需要对“内容移除”的指示进行肯定或驳回。此外,成员们还需要为任一内容审核决策做出迅速的书面解释。
 
“对未来的互联网而言,建立保护‘自由表达’和‘线上社群’的组织架构十分重要,”Facebook的首席执行官Mark Zuckerberg在一次声明中说,“这个委员会在一开始时可能只处理少量案例,但随着时间推移,我们希望它的影响范围能够扩大,吸引更多业界机构的共同参与。”
 

在线QQ咨询,点这里

QQ咨询

微信服务号