推动人工智能产业健康发展
2024年02月01日 09:59 来源:《中国社会科学报》2024年2月1日第2828期 作者:张译心

  本报讯 1月21日,“通用人工智能风险与法律规制”论坛在京举行。

  与会学者围绕当前人工智能治理形势、重点议题、机制动态及未来方向等展开交流讨论。工业和信息化部科技司高技术处副处长王正提出,应夯实人工智能产业基础,健全人工智能治理体系,积极向国际社会贡献中国智慧。希望各方通过政策法规工作组平台,加强交流、凝聚共识、深化合作,支持人工智能产业发展和治理工作。全国人大常委会法工委经济法室副处长林一英表示,一年来,法工界围绕通用人工智能法律规制的议题显著增多,监管方式也不断创新完善。期待中国人工智能产业发展联盟(AIIA)政策法规工作组以跨学科、跨文化、跨地域的合作模式贡献力量。中国政法大学副校长、AIIA政策法规工作组特聘副主任委员时建中强调,我们不应无视人工智能带来的风险,但也不能夸大风险,需找到恰当平衡点。应建立适应人工智能发展的制度环境,在促进技术创新的同时保护公共利益。中国社会科学院哲学研究所科学技术哲学研究室主任段伟文认为,我们需要关注人工智能科研中涉及研究数据与过程干扰的对抗研究,将人工智能科学研究的稳定性、安全性作为评价指标。

  人工智能系统的发展和应用需纳入法治轨道。中国人民大学未来法治研究院执行院长张吉豫认为,我国法律制度需要全面、有效回应人工智能发展应用的迫切需求,为未来更丰富多样的人工智能应用的可信发展确立基本促进制度、责任规则、监管框架和风险防控机制,促进人工智能产业可信发展,增强社会主体对于发展和应用人工智能的信心。

  明确和限定通用人工智能的概念范围是人工智能监管的重要前提。中国信息通信研究院政策与经济研究所高级工程师程莹建议,应注重从成立独立监管部门、在现有监管部门中建立特别工作组、优化政府人才聘用等方式提升监管能力;同时要将红队测试、价值对齐、水印标识等企业技术手段纳入法律监管制度。应结合我国发展诉求,探索敏捷高效、体现广大发展中国家利益诉求的治理路径。北京大学人工智能安全与治理中心执行主任杨耀东从对齐的视角为通用人工智能的法律规制提出整体建议,认为在模型部署前要构建自动的多轮红队测试完善漏洞风险报告机制;模型训练中应构建利益无关的安全偏好数据集,执行模型的安全对齐;模型部署后应建立负责任的扩展策略,预防未来潜在的系统性风险。

  会议由AIIA政策法规工作组主办,中国信息通信研究院政策与经济研究所、中国政法大学数据法治研究院联合承办。

责任编辑:崔博涵
二维码图标2.jpg
重点推荐
最新文章
图  片
视  频

友情链接: 中国社会科学院官方网站 | 中国社会科学网

网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号

中国社会科学杂志社版权所有 未经允许不得转载使用

总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026