本报综合外媒报道 《自然》杂志官网近日刊发文章,讨论如何防止人工智能深度伪造技术危害社会和科学。无论是由人工智能深度学习生成的文本,还是由图像生成器制作的虚假图像和视频,在当今世界都并不罕见。有许多系统可供用户生成任意内容,大量以假乱真的内容制作过程简便、传播速度迅猛,再加上部分公众缺乏防范意识,已经日渐成为一种威胁。美国杜克大学计算机科学助理教授辛西娅·鲁丁(Cynthia Rudin)对此评论称,生成技术不是逐渐发展成熟的,而是突然之间出现的,因此人们还不习惯使用生成技术。
人工智能生成内容的具体数量尚不清楚,但其数量将呈爆炸式增长。有学者认为,不出几年,约90%的互联网内容都可能是合成的。鲁丁表示,人们再找到真正有用的内容将面临困难,并且搜索引擎和社交媒体会放大错误信息。不过,研究人员也意识到,生成式人工智能是强大的工具。人们正在探索深度伪造技术的有益应用,如帮助线上集体心理治疗的参与者保护隐私、创建更有吸引力的医生或教师的数字形象等。美国宾夕法尼亚州立大学媒体效应研究实验室创始人希亚姆·桑达尔(Shyam Sundar)表示,他的态度是期待多于担忧,因为生成技术是一项变革性的技术。
但是,在技术滥用的情况下,有专家担心,在快速发展的人工智能生成系统帮助下,一些无道德原则的研究者可以更加容易地发布虚假数据和图像。由人工智能生成的虚假信息可能对科学产生不容小觑的负面影响。目前,研究人员正在探索如何利用人工智能的生成能力做有益的事,同时,也在积极开发工具防范风险。
当前,在防范风险方面主要有两种方法,一是在内容生成时便标注真假,二是在内容发布后使用检测器进行捕捉。桑达尔认为,尽管这两种方法都能限制造假,但都不是最佳解决方案。从技术角度为造假增加约束,在短期内至关重要;但从长远来看,应该更多地考虑教育和监管。专家们一致认同,提高人们的科技素养有助于防止人类社会被伪造内容淹没。文章提到,欧盟《人工智能法案》对人工智能的高风险使用进行严格监管,并要求披露此类工具生成的内容,这一立法能为其他国家提供借鉴。
(练志闲/编译)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>