原来人工智能机器人和人类一样可以产生偏见
消息来源:baojiabao.com 作者: 发布时间:2024-03-29
本文由腾讯数码独家发布
不仅仅是人类和动物能够对外界和环境存有偏见,来自麻省理工学院和加的夫大学的心理学和计算机科学研究人员发现,人工智能机器人同样可以通过相互学习来产生偏见。
人工智能常常与种族主义和性别歧视有着复杂的关系,我们已经看到以前的人工智能表现出这种偏见,就像过去几年里我们看到的微软聊天机器人所作所为一样。然而根据这项研究表明,人工智能其实本身就有可能形成偏见。研究人员表示:“一组自动机器人可以通过简单地识别、复制和学习这种行为来表现出偏见。”
这些学者们建立了一个模拟游戏,每个人工智能机器人都根据每个机器人的声誉和捐赠策略,选择在自己的团队或另一组中投票给另一个机器人。研究人员发现,机器人对来自其他群体的机器人出现越来越多的偏见。
在成千上万的模拟实验中,机器人通过在自己的群体中或在整个人群中相互复制来学习新的策略。研究发现,这些机器人在短期内会给它们带来更好的回报,这表明高认知能力并不一定需要长时间的培养偏见。
“通过我们的模拟测试显示,偏见是一种强大的自然力量,通过进化,它很容易在虚拟人群中受到激励和刺激,从而损害与他人的更广泛的联系,”该研究的共同作者之一、加的夫大学教授Roger Whitaker写道。“保护不受审判前群体的保护,会在无意中导致个人形成更多的偏见意识,导致数量和观点的分裂,而这种普遍的偏见很难逆转。”
对于那些可能会问“为什么我们不能和睦相处”的人来说,这是一种希望。在某些情况下,包括在一个群体中有更多不同的子群体,偏见程度较低。
“随着更多的亚群体,非司法组织的联盟可以在不被剥削的情况下进行合作。这也降低了他们作为少数群体的地位,减少了对偏见的敏感性。然而,这也需要一些情况,在这种情况下,代理人在团队之外的互动中有更高的倾向,”Whitaker说。
在本周向美国国会发表的证词中,Twitter首席执行官杰克·多尔西谈到了人工智能开发者在减少意外偏差方面的问题。除非开发人员和计算机科学家能够弄清楚如何保持人工智能,让我们只希望机器人不会突然决定不喜欢我们人类面孔的外观,尤其是当它们变得更加自主的时候。
来源:engadget
相关文章
- 中兴受美国制裁事件 被罚了20亿美元过程事件始末 中兴被制裁后公司现状
2023-11-02 22:12:46
- B站怎么炸崩了哔哩哔哩服务器今日怎么又炸挂了?技术团队公开早先原因
2023-03-06 19:05:55
- 苹果iPhoneXS/XR手机电池容量续航最强?答案揭晓
2023-02-19 15:09:54
- 华为荣耀两款机型起内讧:荣耀Play官方价格同价同配该如何选?
2023-02-17 23:21:27
- google谷歌原生系统Pixel3 XL/4/5/6 pro手机价格:刘海屏设计顶配版曾卖6900元
2023-02-17 18:58:09
- 科大讯飞同传同声翻译软件造假 浮夸不能只罚酒三杯
2023-02-17 18:46:15
- 华为mate20pro系列手机首发上市日期价格,屏幕和电池参数配置对比
2023-02-17 18:42:49
- 小米MAX4手机上市日期首发价格 骁龙720打造大屏标准
2023-02-17 18:37:22
- 武汉弘芯遣散!结局是总投资1280亿项目烂尾 光刻机抵押换钱
2023-02-16 15:53:18
- 谷歌GoogleDrive网云盘下载改名“GoogleOne” 容量提升价格优惠
2023-02-16 13:34:45
- 巴斯夫将裁员6000人 众化工巨头裁员潮再度引发关注
2023-02-13 16:49:06
- 人手不足 韵达快递客服回应大量包裹派送异常没有收到
2023-02-07 15:25:20
- 资本微念与李子柒销声匿迹谁赢? 微念公司退出子柒文化股东
2023-02-02 09:24:38
- 三星GalaxyS8 S9 S10系统恢复出厂设置一直卡在正在检查更新怎么办
2023-01-24 10:10:02
- 华为Mate50 RS保时捷最新款顶级手机2022多少钱?1.2万元售价外观图片吊打iPhone14
2023-01-06 20:27:09
- 芯片常见的CPU芯片封装方式 QFP和QFN封装的区别?
2022-12-02 17:25:17
- 华为暂缓招聘停止社招了吗?官方回应来了
2022-11-19 11:53:50
- 热血江湖手游:长枪铁甲 刚猛热血 正派枪客全攻略技能介绍大全
2022-11-16 16:59:09
- 东京把玩了尼康微单相机Z7 尼康Z7现在卖多少钱?
2022-10-22 15:21:55
- 苹果iPhone手机灵动岛大热:安卓灵动岛App应用下载安装量超100万次
2022-10-03 22:13:45