人工智能监管的前提是积累专业知识
2024年01月17日 13:45 来源:《中国社会科学报》2024年1月17日第2817期 作者:杨蓝岚/编译

  本报综合外媒报道 据麻省理工学院官方网站报道,近日,由该学院学者团队组成的特别委员会发布了一份以人工智能治理框架为主题的政策简报,旨在为政策制定者提供决策参考,更好地监督人工智能在社会中的应用。

  2023年,世界各地的人们均对人工智能展现出浓厚的兴趣,进行了规模可观的投资,人工智能相关问题的法律规制也已经提上日程。在这个过程中,语言模型等通用人工智能技术成为了新的症结。

  前述政策简报概述了如何利用现有监管机构和法律框架,将当前的政策扩展到人工智能领域。例如,在现有法律体系内如何规制人工智能以医生的名义诊断开方、搭载人工智能系统的自动驾驶汽车所涉及的问题。除此之外,同样值得留意的法律问题包括与人工智能有关的知识产权纠纷、大规模监控以及假新闻等。

  人工智能系统也可能存在于复合层面。例如,通用语言模型可能是某项新工具的运行基础。多数情况下,模型来自提供者,商家在其上开发应用程序,不过如果系统不在“堆栈”的顶部,则需要仔细斟酌。一般而言,特定服务的提供者对该服务出现的问题负主要责任。然而,当一个“堆栈”的组件系统没有按照约定执行时,该组件的提供者可能也要承担部分责任。鼓励人工智能提供商明确定义人工智能工具的目的和意图,并设置“护栏”以防止滥用,有助于确定企业或最终用户对特定问题负责的程度。

  虽然政策框架主要涉及现有机构,该文件还是呼吁建立一个“自律监管组织”,便于积累人工智能领域的专业知识,并根据行业发展情况及时作出调整。(杨蓝岚/编译)

责任编辑:张晶
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026