从传感器新闻、大数据分析到算法推荐、可视化呈现等,人工智能正在带来一场媒体技术革命。在欢呼技术带给人巨大福利的同时,很多人文学者和科学家对人工智能的风险产生了担忧。智能媒介作为人工智能重要组成部分,其现实和未来风险包括“单向度的人”“信息茧房”“信息过载”“自我截除”“被替代”“透明人”“黑箱”“客体化”等,这些现象近年来受到广泛关注。
大众媒体时代的延续风险:单向度的人
20世纪60年代,马尔库塞在《单向度的人》中对发达工业社会进行了批判,他认为现代新技术形态对人进行了全面操纵和控制,使人丧失了否定的、批判的、超越性的第二向度思维,从而导致“单向度的人”。他认为,大众媒介是国家的“话筒”,是权力的工具,在“单向度的人”形成过程中“功”不可没。
因此,“单向度的人”并非因人工智能媒介而产生的,甚至网络时代的到来曾在一定程度上消解了大众媒体时期人的单向度:人同时作为生产者和消费者,主体传播地位增强;网民建立了公共话语空间,在网络上产生了“意见市场”。这些都有效地促进人的全面发展。
但智能媒介的广泛应用却使这些情况发生了变化,“信息茧房”的形成对人的单向度起了强化和极化作用。其一,智能媒介深谙人们的喜好,用定制信息搭建起了“信息茧房”。在智能化、移动化媒介的“共谋”中,一些人的思想沉迷在极为狭窄的领域中,成为比大众媒体时代更为典型的“单向度的人”。传媒学者喻国明认为,算法甚至可以使公众在由自己的意志编织起来的“信息茧房”中背离事实,削弱其理性判断力,从而实现对公众的操纵。其二,智能媒介技术的高门槛在“信息茧房”的外围又搭建起一道高墙。神经网络、深度学习等工具的技术障碍对于普通网民是难以逾越的,容易引起“智能崇拜”,使网民“屈从”于智能媒介给出的事实解读。其三,大数据技术和不当媒体操作合谋,很容易根据性别、年龄、购买行为等为人精准画像,使人变成“透明人”。“透明人”便于信息挖掘、归类,成为游说、推销的对象,进而变成“票仓”“市场”,而其他向度却被弃之一旁,从而又增强了“信息茧房”的效应。
综上所述,智能媒介技术利用其推荐算法为很多网民搭建起了“信息茧房”,技术的高门槛、人的透明化在“信息茧房”之外又筑造了两道高墙,这种情况下人的单向度进一步提高。
当前智能媒介的主要风险:算法黑箱
“算法新闻”指的是以机器学习或神经网络为基础生产和推荐的新闻。牛津路透新闻研究所《数字新闻报告 2017》显示,54% 的受访者更喜欢通过算法来筛选新闻故事。由于算法技术本身的复杂性,受众很难像了解传统媒体运作流程那样去了解算法新闻的产制过程,因此这个中间环节常被称作“算法黑箱”。
算法黑箱的风险主要是算法偏见,即用貌似客观的算法代替新闻的各个环节,输出违背客观真实的结果。对于公众而言,算法宣称的技术中立姿态常常具有极大的欺骗性。而算法偏见大多来源于算法设计者、输入数据以及程序设计。
媒介即信息,算法即权力。英国文化研究专家斯科特·拉什(Scott Lash)强调,“在一个媒体和代码无处不在的社会,权力越来越存在于算法之中”。算法自身的高门槛、神秘性为其披上了“黑箱”的外衣,其标榜的技术客观性掩盖了算法偏见,然而算法偏见塑造的拟态环境会对客观真实带来真正的伤害。
未来智能媒介的真正风险:人被客体化
人类传播史是一部理性主义不断扩张的历史,实际上也是人类主体性不断增强的历史。新闻传播从口口传播、官方发布到后来职业化生产再到“人人都有麦克风”,无不体现着技术的强大延伸作用。
麦克卢汉在《理解媒介》一书中指出,任何发明或技术都是人体的延伸或自我截除。设想一下未来智能媒介报道火灾新闻的场景:火灾发生时,分布在现场的传感器可以判断出火情大小并初步判断伤亡情况,并将现场图像和信息传真至智能系统。系统在收到信息后,迅速加工成可视化新闻,推送到受众屏幕上。在这种场景中,除了系统的设计维护者,传统意义上的编辑记者已经“被消亡”。此时,人的身份就成了防止算法跑偏的把关人、不断给算法系统升级的工程师以及推荐新闻的收受者。法国哲学家雅克·埃吕尔(Jacques Ellul)认为技术相对于人是自主的:“我们已经看到,在技术的自我增长方面,技术沿着它自己的路线前进,越来越独立于人……人降低到了催化剂的层次。”
现在我们经常听到的论述是:人工智能在新闻报道领域只能胜任那种预制的格式化任务,缺少深度和人情味,不会发散式思考,没有整体性思维。这种自信实际上带有很大的主观性,是对人工智能科技发展的选择性遮蔽。人工智能的未来发展有两个路向,一是模拟人类的思考,用神经网络、深度学习加上人机接口等技术,用电脑模拟人脑;另一个路向正是很多科学家更为担忧的,即人工智能跨越现有人类思维逻辑,选择全新路径,以降维打击方式在思维和实践能力上超越人类。近年来,一些人文学者对机器不会代替人类的坚信正被科学家的担忧取代,被比尔·盖茨誉为“预测人工智能未来最权威的人”的雷·库兹韦尔(Ray Kurzweil)坚信,人工智能会超越人类智能,而且超越的速度比人们预想的快得多。
波兹曼指出,任何一种工具都存在观念上的偏见,都会倾向于将世界构建成某种特定形态,看重某种特定的事物,强化某种特定的感官、技能或态度。特别需要提出的是,在智能机器自主性增强并突破“奇点”之时,如何保证智能媒介的目的和人类总体价值观相一致?智能媒介是否会与部分人类或智能机器共谋,变成谣言制造者、隐私收集者或骚乱煽动者?当智能机器并入物联网之后,新闻与控制信息的界限将变得模糊,智能媒介成为直接行动者的可能性是否绝对不存在?这些问题都是需要我们深思的。
从单向度的人、算法偏见到人被客体化,智能媒介的风险逐渐加强,并且呈现阶段性风险的特征。人的单向度风险在大众媒体时代就已经广泛存在,只是智能媒介将其强化、极化而已;算法以技术中立的外衣导致的报道失实,是我们面临的主要现实危险;未来智能媒介技术的突破性发展,可能会真正危及人的主体性。本文并非以技术悲观主义看待智能媒介的未来,但在任何情况下都必须看到,技术本身不能带来解救,而只有对技术本质的反思才会提供前途。
(作者单位:中国人民大学新闻学院)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>