APP下载

原来人工智能机器人和人类一样可以产生偏见

消息来源:baojiabao.com 作者: 发布时间:2024-03-29

报价宝综合消息原来人工智能机器人和人类一样可以产生偏见

本文由腾讯数码独家发布

不仅仅是人类和动物能够对外界和环境存有偏见,来自麻省理工学院和加的夫大学的心理学和计算机科学研究人员发现,人工智能机器人同样可以通过相互学习来产生偏见。

人工智能常常与种族主义和性别歧视有着复杂的关系,我们已经看到以前的人工智能表现出这种偏见,就像过去几年里我们看到的微软聊天机器人所作所为一样。然而根据这项研究表明,人工智能其实本身就有可能形成偏见。研究人员表示:“一组自动机器人可以通过简单地识别、复制和学习这种行为来表现出偏见。”

这些学者们建立了一个模拟游戏,每个人工智能机器人都根据每个机器人的声誉和捐赠策略,选择在自己的团队或另一组中投票给另一个机器人。研究人员发现,机器人对来自其他群体的机器人出现越来越多的偏见。

在成千上万的模拟实验中,机器人通过在自己的群体中或在整个人群中相互复制来学习新的策略。研究发现,这些机器人在短期内会给它们带来更好的回报,这表明高认知能力并不一定需要长时间的培养偏见。

“通过我们的模拟测试显示,偏见是一种强大的自然力量,通过进化,它很容易在虚拟人群中受到激励和刺激,从而损害与他人的更广泛的联系,”该研究的共同作者之一、加的夫大学教授Roger Whitaker写道。“保护不受审判前群体的保护,会在无意中导致个人形成更多的偏见意识,导致数量和观点的分裂,而这种普遍的偏见很难逆转。”

对于那些可能会问“为什么我们不能和睦相处”的人来说,这是一种希望。在某些情况下,包括在一个群体中有更多不同的子群体,偏见程度较低。

“随着更多的亚群体,非司法组织的联盟可以在不被剥削的情况下进行合作。这也降低了他们作为少数群体的地位,减少了对偏见的敏感性。然而,这也需要一些情况,在这种情况下,代理人在团队之外的互动中有更高的倾向,”Whitaker说。

在本周向美国国会发表的证词中,Twitter首席执行官杰克·多尔西谈到了人工智能开发者在减少意外偏差方面的问题。除非开发人员和计算机科学家能够弄清楚如何保持人工智能,让我们只希望机器人不会突然决定不喜欢我们人类面孔的外观,尤其是当它们变得更加自主的时候。

来源:engadget





2018-09-07 23:31:00

相关文章