APP下载

脸书打造包容性AI,拿掉影像辨识的有色眼镜

消息来源:baojiabao.com 作者: 发布时间:2024-05-04

报价宝综合消息脸书打造包容性AI,拿掉影像辨识的有色眼镜

人们越来越倚重人工智能解决关键任务,因此机器学习是否具备包容性(Inclusive),能够良好兼容各种多元属性,成了重要的课题,脸书在研发其智慧视讯装置Portal时,发现人工智能进行影像辨识时,对肤色以及性别存在偏见,因此发展出一个框架以打造具包容性的人工智能,并扩大应用到内部其他专案中。

脸书在F8大会分享了他们发展包容性人工智能的历程,事件就发生在脸书AR/VR技术业务主管Lade Obamehinti身上,该团队在Portal早期测试阶段,发现其人工智能相机作出了出乎意料的判断。由于Portal的相机会透过电脑视觉计算,根据人们在房间中的移动与分布,动态构图找出最适合容纳多个主体的视野,但是在某一次Lade Obamehinti说话且做出丰富的手势,Portal的人工智能并没有焦点放在Lade Obamehinti这个明显的兴趣点上,而是将镜头聚焦在另一名白人男同事身上。

Lade Obamehinti是来自尼日利亚的优秀女性,他发现,人工智能模型之所以会对不同的人,做出不一样的表现,部分原因在于用来训练模型的资料集存在限制与缺陷,由于人类天性就会对事物进行分类,如果不加以控制,则会造成人工智能系统出现偏差,而且还可能会放大人性负面的部分。为此脸书发展出一套包容性人工智能开发程序,其提供人工智能开发人员可依据的指南,帮助研究人员设计资料集、测量产品效能,以及测试包容性的系统。

当脸书把包容性考虑进人工智能的训练时,发现原本训练Portal智慧相机模型的资料集,肤色以及性别的样本分布不均,而样本偏差会使得训练出来的人工智能服务,不完全适用于真实世界,因此Portal团队重新调整了资料集,使用更加平均的性别、年龄和肤色样本,并在验证以及训练模型时,遵守包容性人工智能指南,以最大程度降低Portal智慧相机模型可能出现的风险。

Lade Obamehinti为脸书建立了一套程序,来描述包容性人工智能,其包含使用者研究、算法开发以及系统验证,使用者研究用来分析产品功能在不同的人出现的各式回应,算法则是关于资料集设计、训练与评估,而系统验证则专注于效能表现以及各项体验上。在过去一年中,脸书内部开始将包容性人工智能程序,导入到开发流程中,用来确保脸书与Instagram的照片滤镜,在各式肤色与因素下都能良好运作,Messenger中的AR特效,在各种脸部形状与肤色都能正确的表现。

但脸书也提到,并非每种应用都能应用包容性流程,因为在某些领域上,整个行业都没有足够具代表性的资料集,为了解决这样的问题,脸书正在推动建立全球使用者研究,将包容性人工智能测试扩展到声音上,脸书表示,声音资料集需要考量方言、年纪以及其他更多的属性,才足以建立能够听懂不同人们说话的人工智能。

机器学习的包容性议题持续受到关注,特别是当机器学习的应用影响人们权益或是生命时,像是去年美国警方开始使用AWS Rekognition的人脸辨识服务,美国公民自由联盟(American Civil Liberties Union,ACLU)指称系统存在辨识误差,可能对无辜的人造成负面影响。另外,Google与美国军方合作的Maven计划,以人工智能辨识无人机拍摄的物体,并以导弹摧毁这些物件,电子前线基金会(Electronic Frontier Foundation,EFF)则表示,人工智能仍处于难以控制的阶段,可能造成不必要的伤害。

也越来越多的学者提出对于人工智能的不信任,莱斯大学电脑科学副教授Genevera Allen发现,科学研究使用机器学习分析资料,但由于找到的模式只会存在于资料集,而非来自真实世界,将模式直接套用在真实世界,则会得到错误的结果。而台大资工所助理教授陈缊侬则提到,人工智能之所以存在偏见,是因为人们存在意识偏见,人工智能只是真实的学习人们提供给他们的资料。

2019-05-07 11:21:00

相关文章