本报综合外媒报道 3月14日,美国人工智能研究公司OpenAI发布了最新的深度学习模型GPT-4,这是其大型语言模型ChatGPT的最新版本。3月16日,英国《自然》期刊官网发文称,相比于此前的模型,GPT-4有了很大的升级,它能够根据提示创建文本、生成图像,准确性不仅大幅提高,还具备了更高水平的识图能力。研究人员认为,虽然GPT-4的功能十分强大,但对于这项技术的底层代码如何运行以及如何训练的信息,人们知之甚少,这引发了学界对该技术安全性的担忧。
GPT-4是采用闭源模式发布的模型,它掌握了大量独家用户反馈的数据,能够通过持续迭代优化模型,但训练数据集不会公开。GPT-4是否会创建非法或破坏性的内容,以及输出虚假信息,这一切都不得而知。来自开源人工智能社区“抱抱脸”的科学家萨沙·卢奇奥尼表示,由于无法获得用于训练的数据,OpenAI无法满足客户的安全性要求,用这样的模型做科学研究是不太可能的。卢奇奥尼的另一个担忧是,GPT-4可能比人类还抱有偏见,如果不能访问GPT-4背后的代码,就不可能看到偏见从何处产生,也无法进行纠正。
人工智能系统普遍由大型科技公司控制,研究人员希望这项技术能够得到科学家的适当测试和验证,而与大型科技公司合作可以加快这一进程。根据以往经验来看,关于技术的立法与监管总是难以跟上技术发展的步伐。因此,人们迫切需要一套技术指南,用以指导GPT-4等人工智能工具的开发和使用。然而,无论存在何种担忧,GPT-4及其未来的迭代版本将动摇科学界,已成为事实。研究人员认为,这将引发科学基础设施的变化,其影响效果类似于互联网的诞生。当然,GPT-4不会取代科学家,其功能主要还是协助科学家完成科研任务。
(王俊美/编译)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>