社交媒体监管与自律并重
“节制”内容 提高“透明度”
2017年05月24日 08:17 来源:《中国社会科学报》2017年5月24日第1213期 作者:本报记者 侯丽

  社交媒体作为当今重要的交流工具,给人们的社交生活带来了极大便利,某种程度上甚至重塑了人们的社交方式和社交版图。然而,社交媒体对言论的开放态度导致很多“负面信息”的产生,由此引发的关于“内容监管”的争议从未止息。近日,“对话”网发布了一系列学者关于该话题的文章,对社交媒体“内容监管”问题进行了研讨。

  严控负面信息“爆炸”

  现在人们已习惯从社交媒体上获取信息,但随之产生的问题是,在人们需要和想要看到的信息中,会夹杂着一些人们不愿看到,甚至是能引发人们身体和心理不适的信息,并且常常不可避免。英国卡迪夫大学一名讲师曾在美国社交媒体平台“脸书”上表示,作为一个2岁孩子的妈妈,她经常在社交网站上搜索一些育儿信息,但同时网站也会提供一些儿童受到伤害的图片和信息,让她感到恐慌和不适。她曾呼吁人们研究社交媒体上的负面信息给人们带来的心理创伤,她提出,这种信息对人们的影响某些时候是否会负面多于正面?

  今年4月,“脸书”曾出现“直播杀人”事件。该事件发生后,引起舆论一片哗然。社交媒体因为缺乏信息发布门槛,类似这种极端事件等内容的出现,经常性地引发人们对社交网络的争议。

  澳大利亚昆士兰科技大学学者尼古拉斯·苏泽尔(Nicolas Suzor)表示,近年来这种现象愈演愈烈。与社交媒体刚出现时人们涌现的“猎奇”心理不同,现在各种能引发人们负面情绪的信息越来越多,人们开始主动选择回避一些信息,如暴力事件等。但在好奇心的驱使下,有时人们对出现在眼前的信息缺乏抵抗力,于是许多人陷入“不想看但又不得不看”的选择困境中。在这种状况下,越来越多的舆论呼吁社交网站重视内容方面的审核和节制。

  内部文件揭秘处理标准

  苏泽尔表示,社交媒体如何发布内容对公众来说通常是个谜,由于政府监管力度不足,社交媒体的自律状况决定着其对于发布内容的选择。

  以“脸书”为例,其监管主要通过两种方式:一是通过自动技术过滤色情、暴力内容。据相关报道称,该社交媒体有专门小组负责监测十多种语言的视频,对违反公司标准的暴力内容、嘲讽内容等进行删除;二是根据用户举报投诉,对内容进行删除。

  然而,现实是,一些不良视频并没有被及时阻止和删除。而这种怠慢行为遭到了公众质疑。苏泽尔在文中披露,英国《卫报》最近发布了一份“内部内容指南”(Internal content guidelines),这份文件显示了一些社交媒体巨头如何对内部员工进行培训。通过这份指南,或许可以解释一些社交媒体巨头在内容方面有哪些考量,又有哪些“秘密”。

  苏泽尔表示,根据这份指南可以看到,“脸书”会对内部管理人员进行培训,管理人员决定哪些内容可以发布,哪些内容需要阻止或删除。培训中的一些细节显示,对内容的监管规则比较“随意”,有一定的空间,如对于“有人攻击特朗普”的内容需要被删除,而一些对女性有攻击性或蔑视性言论等,并没有被严格要求筛选并删除。

  相较内容的监管,“事实上,这些社交媒体更关心它面临的其他挑战,如发布内容的数量,以及如何处理用户、广告商和社会组织之间的冲突等。”苏泽尔说。

  利用大数据技术应对挑战

  “脸书”直播服务负责人丹尼尔·丹克(Daniel Dunker)曾表示,要在实时传播中建立安全空间会面临很多困难。他说,直播尤其具有挑战性,因为没有时间作出反应。美国迈阿密大学教授安妮·弗兰克斯(Anne Franks)对社交媒体是否恰当地监测了直播视频表示怀疑。

  事实上,社交媒体都面临如何更好地管理在线社交空间的问题。如果过度控制言论,社交媒体自然担心用户体验下降,但如果放任暴力等争议性内容,其社会公信力也会受到不断冲击。有学者提出,社交媒体想要吸引用户,对争议性内容就不可能做到杜绝。

  关于“透明度”问题,苏泽尔建议利用大数据技术,研究社交媒体平台的偏好(偏见)和执行中的错误率,同时,平台有义务向公众提供相关数据。苏泽尔认为,没有平台可以对言论做到完全客观公允,但提高平台运行的“透明度”,是对公民和社会负责的基本态度。

  毋庸置疑的是,社交媒体必须开始倾听并向公众提供真正的见解和意见,从而决定如何做出关于内容监管的科学决策。

责任编辑:韩慧晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026