本报综合外媒报道 1月13日,“对话”网刊发消息称,随着人工智能产品在日常生活中的广泛应用,其算法是否准确、是否带有偏见成为人们最为关注的问题。
澳大利亚悉尼大学梯度研究所首席科学家提贝托·卡埃塔诺(Tiberio Caetano)对此提出,人工智能系统犯错后很难被纠正,且很难被发现。如果数据集包括错误数据或是偏见数据,人工智能系统得出错误结果的可能性就会增加,容易产生算法偏差。
卡埃塔诺进一步解释说,由于缺乏适当的数据训练或系统中存在不适当的配置,当前人工智能系统产生算法偏差的事件时有发生。例如,银行通过人工智能系统来决定是否给新的申请人发放贷款时,该系统使用的数据集却是来自过去申请贷款者的财务状况、就业历史等相关信息。这些信息是由贷款经理根据个人主观意识做出的决策,这些数据集是存在偏差的,因此银行人工智能系统做出的决定也会是不准确的。
如何降低算法偏见,在卡埃塔诺看来,一是不断更新数据,尤其重视获得那些代表性不足人群的数据信息;二是预处理数据,对原始的数据集进行必要的编辑,删除容易产生偏见的属性信息;三是增加模型的复杂性,简单的人工智能模型容易被监控或篡改;四是完善系统,人工智能系统的逻辑和参数可以通过主动调整来抵消算法偏差。
为了让人工智能系统做出更准确的决策,卡埃塔诺建议在使用人工智能技术时要考虑公平等一般性原则,不断升级系统的设计和测试方法,以确保得出的结论不受算法偏差影响,最后要对系统进行密切监控。人类要负责任、合乎道德地使用人工智能系统,严格遵守法律法规,才能最终创造一个更公平、更公正的社会。
(赵琪/编译)
友情链接: 中国社会科学院官方网站 | 中国社会科学网
网站备案号:京公网安备11010502030146号 工信部:京ICP备11013869号
中国社会科学杂志社版权所有 未经允许不得转载使用
总编辑邮箱:zzszbj@126.com 本网联系方式:010-85886809 地址:北京市朝阳区光华路15号院1号楼11-12层 邮编:100026
>