审计研究拓展新闻传播学空间
2024年01月10日 09:30 来源:《中国社会科学报》2024年1月10日第2812期 作者:仇筠茜 吴澳 张鸿茹

  在平台社会和智媒浪潮中,新闻传播学科面临着将审计方法系统引入并进行本土化、本学科化的契机。智能和算法的技术运作真的是不透明、不可知的吗,还是只是记者、研究者们回避难解问题的挡箭牌,或者成了政策制定者不作为的免责声明?经典社会科学研究中的审计研究(auditing research)有潜力成为解决这方面问题的抓手。本文试图介绍审计研究的取径,并分析其如何在新闻传播学科中找到定位。

  审计研究的跨学科轨迹

  审计研究指通过准实验的方法来识别社会中存在的系统性偏向。偏向是一个中性词,包括偏见和歧视,其中偏见是态度层面的情感偏向,而歧视是基于偏见的行为偏向。

  审计于20世纪中叶发端于英国和美国,在社会科学研究中已有60余年历史,早期的审计重点是住房和就业中的系统性偏向。在英国,英联邦移民全国委员会主持的住房审计研究开启了最早的尝试。1968年,为评估《种族关系法》的社会影响,多个政府部门合作开展审计,探究白人英语母语者、白人移民、黑人求职者这三类人群在住房、就业、服务领域受到的歧视境况。“审计”在这时被描述为“情境测试”,以区别于当时已经较成熟的调查、实验室实验等方法。在美国,审计研究兴起于民权运动时期。1977年,美国住房和城市发展部开展第一次大规模住房审计。该部门与促进住房公平的公益组织合作,对20个城市的住房情况开展了3264次审计研究。这些研究结果揭示了住房销售和租赁市场中对黑人的歧视,表现为存在区别性对待黑人的售卖和租赁条款、更高的交易中介费用等现象。

  早期审计研究是面对面进行的,但随着互联网在住房、就业中的普及,审计研究开始通过电子邮件开展,通信审计逐渐形成。研究者也突破对偏向的简单描述,转向更深入地探索偏见的机制、意图和条件。世界上第一次通信审计出现在1969年的英国。研究者把256名申请人的简历投向128个招聘岗位,发现和其他四类移民群体相比,英国本土出生的白人在现实的招聘雇佣中受到优待,揭示了该国就业中存在的系统性种族歧视。传统审计研究关注种族、歧视等议题。21世纪以来,审计研究的对象进一步拓展到医疗健康、市场贸易等领域中的偏向问题。

  传统审计研究中蕴含着对社会公平、公共利益的关怀,与新闻业长久以来的价值规范和合法性话语不谋而合,审计结果因此也成为新闻报道的重要选题。近年来,平台和算法成为新的审计对象,也加速了审计研究在社会科学、新闻传播学研究中的跨学科融合。记者和学者们有意识或无意识地使用审计的思路或方法,试图甄别算法偏见,发现决策者立场、工程师逻辑、用户惯习、社会固有偏向等如何内嵌到新的“技术—社会”链条中。

  审计算法偏向

  算法偏向是当前审计研究的焦点议题。算法指一组由计算机运行的、用于解决某一特定问题或达成明确目标的指令和步骤。运用审计方法系统审查算法的结果偏向,也被称为算法审计,常被用于检测算法中隐含的阶级、种族、性别偏见,分析算法与社会的互构关系。

  算法审计的对象是不同类型算法与社会实践的互动。我国《互联网信息服务算法推荐管理规定》将算法技术分为个性化推送类、排序精选类、检索过滤类、调度决策类、生成合成类五类。前四类算法主要关注从现有数据和资源中挖掘、筛选、优化和调度信息;生成合成类算法用于生成新的文本、图像,例如2023年初引起热议的ChatGPT。在新闻传播学领域,已有记者、学者综合运用审计方法,对各类算法中蕴含的偏向及其社会后果展开调研,将数据偏见、信息鸿沟等议题纳入审计范畴。

  检索过滤类算法的审计研究最为常见。美国纽约大学的玛琳娜·弗拉斯努等人运用爬虫审计和非侵入式用户审计相结合的方法,对153个国家的图像搜索算法展开审计,验证搜索算法中的性别偏见。这篇发表在《美国国家科学院院刊》(PNAS)上的论文,揭示了偏见在社会、人工智能技术和数字阅听人的多维互动中的循环扩散。再如,我国学者陈昌凤和师文对国内主流搜索引擎检索展开审计,发现搜索引擎与商业网站间的利益关联会导致偏向,对数字生态的公共性形成挑战。

  调度决策类算法在社会中的采纳和运行更加隐秘,需要专业记者长时间的、系统的审计研究。非营利媒体ProPublica发表的题为《机器偏见》的系列调查报道,入围2016年普利策解释性报道奖。该报道通过对美国司法系统中广泛应用的预测被告再犯概率的系统进行审计,发现黑人被告在预测过程中更容易被误判,而白人被告则更易被漏判,揭示出司法系统运用算法辅助判决时存在的系统性偏误。

  算法审计的方法可以概括为五个类别。一是代码审计,分析平台源代码以发现可能的程序错误和安全漏洞;二是爬虫审计,由审计者向平台反复发出查询请求以观察数据结果;三是非侵入式用户审计,邀请真实用户报告自己与系统进行交互的结果,再进行系统分析;四是代理审计,用计算机程序模拟用户来观察算法的输出结果,可以简单理解为研究者用机器人对算法系统做实验;五是众包审计,基于用户意愿,直接介入用户账户内,采集数据进行审计。不过,上述审计方法面临着侵犯隐私、再造虚假信息等悬而未决的伦理问题,值得警惕。

  定位审计研究

  审计研究应如何纳入现有新闻传播学科?现从实践、理论和方法三个方面来分析。

  实践方面,算法审计有潜力成为独立的新闻报道条线,拓展公共议题的报道空间。例如,孙萍等研究者发现算法平台对骑手、代驾员等群体数字劳动和情感劳动的规训。包括《人物》杂志在内的多家新闻媒体系统跟进,将算法偏向议题引入媒体报道和大众视野,让数字劳工问题受到普遍关注。2020年起,“篮字计划”公众号持续关注算法系统中的弱势群体,讲述数据标注工、程序员等不同职业的故事。再如,数据报道媒体The Markup通过代码获取基础数据集,对平台技术公司的社会影响进行审视。

  理论方面,审计研究为构建数字新闻理论拓展思路,特别为论证“透明性”理念提供理论和方法的准备。在大众媒体时代的新闻理论中,新闻报道区分事实和观点的“客观性”原则一直被奉为圭臬,却也始终面临无法实现的质疑、权力附庸的批判。在专业内容(PGC)、用户内容(UGC)和算法内容(AGC)高度混杂的后真相语境下,“客观性”原则受到空前挑战。有学者提出用透明性取代客观性。例如,比尔·科瓦奇等人认为,“用核实加以约束,尤其是透明的观念,是解决偏见问题的最有效的方式之一”。越来越多的新闻媒体开始采纳透明性实践,例如在报道的末尾公开源数据、源代码,声明人机协同如何分工。运用审计方法,研究者可对世界主流媒体的透明性实践展开评估,并在数字新闻学研究中引入透明、可审计、负责等概念,拓展数字新闻理论建构。

  方法方面,审计研究本质上是一种准实验方法,简单来说就是对系统进行实验。算法技术深度嵌入的互联网数字化空间不仅是一个信息记录空间,更是一个新型社会行动空间。研究者可以在已有的社交平台、算法平台上依研究目的来搭建实验场景、模拟实验条件,探究算法和人类行为的互动中可能存在的系统性偏向。这一方法具有成本低、外部效度高的优点。因此,审计研究可被看作实验方法在数据与智能条件下的新进展。

  综上,审计研究旨在实证地审查社会中存在的系统性偏向,已经积累了丰富案例和可行方法。审计研究对提高新闻质量、确保媒体公信力、完善平台监管、提升公众媒介素养和促进相关学术研究有所助益。

  (本文系国家社科基金青年课题“人工智能条件下新闻生产的边界重构与价值引领研究”(19CXW008)阶段性成果)

  (作者单位:中国传媒大学新闻学院;中国传媒大学新闻学院调查统计研究所)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026