人工智能存在社会学盲点
2016年11月07日 09:21 来源:《中国社会科学报》2016年11月7日第1082期 作者:

  本报综合外媒报道 日前,微软研究院首席研究员凯特·克劳福德和华盛顿大学法律与信息科学助理教授雷恩·卡罗在《自然》共同发表文章称,当前人工智能在技术领域突飞猛进,但暴露出来的社会学盲点也值得警惕。

  当前,人工智能已经渗透进社会诸多领域,例如,金融系统已采用人工智能做初步分析工作。但与此同时,也有人担忧,人工智能若在进行预测和做出决策方面表现更优秀,是否会造成人类失业、信息泄露、道德伦理判断紊乱等相关社会问题。

  文章以“电车难题”为例进行了说明。是否该牺牲一条生命来拯救五个无辜的人?功利主义认为,牺牲少数人来拯救多数人是合理的。但康德主义认为,道德应该建立在必要的义务责任上。如果不可以杀人是道德义务,就不应该让一个无辜的人牺牲。克劳福德等人认为,关于道德伦理的辨析是复杂的,但是对于人工智能而言,许多选择可能会变得简单而粗暴。一辆人工智能驱动下的自动驾驶汽车在权衡“杀人决策”时,可能只会提供一个关于道德推理的狭隘框架。如果自动驾驶汽车得到大规模应用,在面临“电车难题”这类选择困境时,应该如何进行伦理方面的设计,便成为一个社会学上的盲点。

  文章表示,目前尚未出现一个人们普遍认同的方式来评估人工智能对人类的持续影响。克劳福德等人建议,应该构建具有相对普遍适用性的社会系统分析工具,从人工智能产品的概念、设计、应用、管理等方面来分析其影响。例如,在美国芝加哥,算法生成的热点图正被用于识别与枪击事件“高度相关的人”。但有研究表明,这样的热点图效率低下,虽然扩大了搜索嫌犯的范围,但对于捕获真正的嫌犯没有进一步的帮助。学者建议,类似的人工智能工作在设计时应该引入更多社会学视角,充分考虑政治、历史、文化等因素对于犯罪的影响,而不仅仅是依靠技术进行简单的辨析。

  文章提出,社会系统分析工具的构建涉及哲学、社会学、人类学和科学技术研究等相关学科,需要对人类社会与技术变革的交互影响进行综合权衡。这是当前研究者面临的难题,但只有对人工智能的社会影响进行更为宽泛的探讨,才能对人工智能得出更为全面、深刻的理解。

  (侯丽/编译)

责任编辑:崔岑
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026