完善人工智能开发和使用规则
2021年06月28日 08:05 来源:《中国社会科学报》2021年6月28日第2195期 作者:王晓真/编译

  本报综合外媒报道 近日,澳大利亚昆士兰大学官网公布了一项新研究。研究人员对澳大利亚、美国、加拿大、德国、英国的6000余人进行了调查,以了解人们对人工智能的态度。调查结果显示,77%的受访者表达了对人工智能的不信任。

  大多数受访者认为,很多组织机构使用人工智能并非为了造福社会,而是出于经济原因,即为了削减劳动力成本。因此,部分受访者担忧人工智能对就业造成冲击。其中,澳大利亚人尤为突出,61%的澳大利亚受访者认为,因人工智能消失的就业岗位会多于它所创造的岗位。

  调查数据表明,受访者的不信任感主要缘于对人工智能技术的认识不足。例如,研究人员发现,尽管76%的受访者使用社交媒体,但同时有59%的受访者不清楚社交媒体会使用人工智能技术。

  此外,这项研究还指明了提升人们对人工智能信任度和接受度的方向,包括强化现行法律法规、增加人们对人工智能的了解、保护数据隐私、强化人工监管、提升透明度、保证公平性和实施问责制等。此外,政府还应完善相关规则和机制来保证各种组织机构负责任地开发和使用人工智能。例如,建立人工智能伦理审查委员会、公开探讨人工智能技术对社会的影响等。

  (王晓真/编译)

责任编辑:常畅
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026