用主流价值导向驾驭“算法”
2022年03月03日 09:44 来源:《中国社会科学报》2022年3月3日第2359期 作者:江凌

  习近平总书记在《加快推动媒体融合发展 构建全媒体传播格局》中强调:“探索将人工智能运用在新闻采集、生产、分发、接收、反馈中,用主流价值导向驾驭‘算法’,全面提高舆论引导能力”。这为推进智能媒体的推荐算法治理提供了行动指南和根本遵循。当前,智能媒体推荐算法仍存在诸多问题,如算法价值观出现偏离,算法歧视和人工智能价值非中立性伦理现象凸显,信息茧房与信息成瘾加重,数据安全、用户隐私和版权问题突出,智能媒体产业急速扩张与规制的非对称性矛盾突出等。面对发展中的问题,强化主流价值观驾驭算法,势在必行。

  智能媒体推荐算法存在问题

  主流价值观引导力不足,算法价值观出现偏差。一个社会的良性运行和健康发展需要主流价值观的感召和引领。算法作为一种信息技术,本身不带价值和道德立场,但算法推荐者不能没有价值立场,他们的算法使用动机和德性决定了算法推荐的价值取向。比如,当人们习惯了“精神病人因为暴力倾向需要被锁链控制”这一隐性的价值判断时,在某种程度上就会助长虐待精神病人的风气。这种由算法这只“看不见的手”传递出来的违背主流价值观的偏颇信息,对用户具有“涵化”作用。

  算法歧视和人工智能价值非中立性伦理问题凸显。牛津大学数据伦理和算法研究员桑德拉·沃彻说:“世界存在偏见,历史数据存在偏见,因此,我们得到带有偏见的结果,不足为奇。”比如,某些西方媒体长期以抹黑中国为政治正确,带偏国际舆论走向。西方主流媒体平台在推荐算法作用下,跟进以人权、自由为名的抹黑“潮流”,真假难辨的“抹黑新闻”越来越多。究其原因,推荐算法仍是一种“人造物”,若在报道初期出现价值观偏颇问题,那么人工智能在使用算法模型进行判断与决策时,便会按照偏颇的价值观进行错误决策。

  个性化推荐固化信息茧房、信息成瘾和信息偏见。受众长时间接受同质化的信息内容会形成群体极化,尤其是当下智能媒体被推荐算法支配,更容易造成信息茧房、同质化信息成瘾和信息偏见现象。比如,抖音、淘宝、B站等平台设计的算法推荐系统,基于维系用户黏性和依赖度,让原来受众主动的信息获取变成了被动的信息喂养,网络信息内容由立体、多样化变得扁平、单极化,用户的自我意识和多元化信息选择逐渐丧失。如果受众长期受推荐算法的支配,就会造成知识结构片面、单一,难以接受不同的观点,长此以往便置身于狭隘的“信息茧房”中,形成信息偏见。

  数据安全、用户隐私权和版权保护受到严重威胁。智能媒体时代,“受众获得智能媒体平台便捷的信息服务,但代价是失去个人信息和隐私安全”。一定程度上,我们的眼球注意力和个人数据已成为媒体平台所出售的产品。近期,国家互联网信息办公室依据有关规定,对短视频、浏览器、求职招聘等常见App的个人信息收集使用情况进行了检测。检测发现,以抖音、快手为代表的短视频类App,以360、百度为代表的浏览器类App,以领英、智联招聘为代表的求职招聘类App,均在不同程度上存在“违反必要原则,收集与其提供的服务无关的个人信息”等行为。受众个人隐私安全在推荐算法操纵下受到了严重威胁。

  算法内容质量难以保障,“三俗”信息内容频繁出现。个性化推荐可以根据用户的信息偏好推送,但由于受价值偏向和“信息茧房”“信息成瘾”“信息偏见”的影响,算法推送的内容质量在很大程度上难以识别优劣,如果不断给用户推送点击率高但充斥着虚假、低俗信息内容,将会使新闻价值观偏离主流。比如,B站作为“Z世代”群体高度聚集的网络社区和视频平台,因存在传播低俗内容问题被国家网信办约谈。据网民反映,B站直播频道经常出现主播衣着暴露、言行粗俗等现象,诱导用户点击浏览并充值打赏。B站创站的初心是构建一个源源不断产生优质内容的网络生态系统,如今有点变味。

  智能媒体产业急速扩张与规制的非对称性矛盾突出。推荐算法应用于智能媒体后,导致传媒产业规制呈现一种非对称结构,即基于算法的智能媒介产品几乎无所不在,但规制约束力还处于能量散乱的状态。由于算法高度依赖导入数据的结构性特征,根据大数据分析,算法将集中放大和扩展点击率、转发率双高的信息内容,造成媒体市场的“劣币驱逐良币”现象。同时,由于内容版权规制不严,一些媒体平台聚合的信息内容处于掠夺式状态,从而限制了高质量信息内容的流动。有研究者对美国12个平台的算法新闻进行分析,发现各方对算法新闻作者署名权的认定不一致,高质量的信息内容如果无法进入算法池,便无法被算法推荐。因此,面对智能媒体的算法困境,相应的规范性制度体系亟待建立。

  提升智能媒体推荐算法治理能力

  驾驭算法“搜集受众兴趣、高频自动推送”的运行逻辑,着力提升短视频主流价值内容占比,强化主流价值观引领。在充分了解个体受众的基础上,算法会不断地自动推送和回应受众的个性化信息诉求。鉴于此,主流媒体应紧紧抓住内容创作优势,多做反映主流、创造共识的作品,有意识地提升主流价值内容的出现频率,从而提升“被推送”概率,使主流价值内容能够搭上新技术的快车。此外,面对算法焦虑,需要保持内容的主流价值观定力,积极引导正向网络舆论,形成引领示范效应。

  驾驭算法“无价值预设、无价值判断”的客观特点,着力增加人工监管,强化“算法推荐+人工”的把关人模式。当前,智能媒体算法推荐在很大程度上减轻了人工筛选新消息的工作量,但机器智能的语言理解能力、情感分析能力十分有限,部分信息内容仍需要人工筛选。对此,建议引导平台增设“人工监管岗”进行价值判断,例如,今日头条在2018年初新增岗位2000余个,用来进行信息内容环境的人为监管;抖音平台也采取了相应措施,增加人工审核人员,加强敏感内容审核和推送环节的人工审核强度,加大人机协调程度。

  驾驭算法“易被违法违规利用”的应用风险,着力健全“反算法歧视”“反算法杀熟”“个人数据保护”等相关法规。2021年5月,国家互联网信息办公室通报,包括搜狗输入法、讯飞输入法、百度输入法、高德地图、百度地图等总计33款App存在违法违规收集使用个人信息问题。为应对算法歧视及算法滥用现象恶化的趋势,亟须完善“反算法杀熟”“反算法歧视”及个人信息保护相关法律法规,在诸如隐私权保护、个人数据保护等法律法规的制定或修改过程中(美国已出台上述法案),有意识地增加防范算法侵害的内容,平衡好算法在市场效率与权利保护之间的关系。

  驾驭“算法价值把关者是社交媒体平台”的权责界分,积极肯定平台有益探索,夯实平台责任,避免“三俗”内容频现。一方面,建议梳理并积极认可平台的有益探索,例如,腾讯推出抗疫专题、上线“战疫情”频道,发起“在家上课啦”计划、开启“云录制”等,持续保证优质内容产品的供应,借助正能量信息内容疏导用户情绪等,实现了平台效益与主流价值观同频共振。另一方面,不断夯实平台责任,优化治理不良信息的算法机制,赋予用户“将频道向后调整”及“选择不看”的权利。

  驾驭“算法推送依据是用户个体行为”的互动特性,着力增强用户信息素养及“反驯化”算法能力。算法价值观,根本上取决于用户价值观。一方面,着力倡导互联网时代的用户自律、信息素养,另一方面,推出用户“算法画像”,通过让用户“看见”自己的算法形象,调动内在动力,以行为反馈积极修正和优化自身“算法画像”。尤其是要提高青少年的智能媒介素养,增强数字化信息检索、信息甄别和信息选择能力,将智能媒介素养教育引入中小学课程。同时,落实家校责任,鼓励家长、老师担当“媒介素养榜样”。

  着力打造政府“驾驭”算法的治理闭环。一是开展多元共治,联合智能媒体平台企业等多元主体,完善算法治理的制度法规,加大推荐算法的精准治理。二是以“清朗·算法滥用治理”专项行动为抓手,规范应用推荐算法进行新闻信息分众化传播的行为和秩序,指导互联网平台优化信息过滤、排名、推荐机制,开展算法安全技术检查和技术评估。三是出台相关伦理指南或价值导则,引导算法治理的相关法律及规则制定。把技术规则体系纳入法律、伦理所建构的社会规则体系中,将公平向善的价值观融入大数据产业全链条中。四是以强化算法“透明性”和“可解释性”为抓手,建立数据审查、问责和事后救济机制,便利监管机构对算法进行阅读和审查,并将数据透明与审查纳入算法治理的监管手段之中,并完善事后救济与责任承担制度。

  (作者单位:上海交通大学媒体与传播学院)

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026