APP下载

IBM开源统计偏差修正框架FairnessKit,要阻止种族歧视机器人产生

消息来源:baojiabao.com 作者: 发布时间:2024-05-18

报价宝综合消息IBM开源统计偏差修正框架FairnessKit,要阻止种族歧视机器人产生

研究发现,人工智能不只学了人类好的部分,也学了种族与性别歧视等坏的部分,IBM实验室现在开源了AI Fairness 360(AIF360)工具包,用来减轻人工智能的学习偏差。

机器学习逐渐可以代替人们做出高风险的决策,IBM提到,虽然机器学习的本质就是一种统计歧视(Statistical Discrimination)的形式,但是当部分拥有特权的群体处于系统优势的时候,歧视会变得令人反感。机器学习的训练资料,无论是采样不足或是过度采样,甚至标签存在偏差,最终都会造成不良的模型。

IBM着手修正人工智能可能存在的偏差问题,现在对外开源AIF360专案,这是一个Python软件套件,由广泛的算法平等研究社群开发,内含有9种不同的算法,开发者能以类似Scikit-learn函式库的范式,呼叫使用这些算法。AIF360不仅仅是提供人工智能模型的偏差指标,更是提供减轻偏差的方法,并专注于可用性与软件工程改良上。

AIF360内建3个范例,领域包括信用评分、预测医疗支出以及以性别分类脸部图片。IBM表示,虽然他们过去已经在健康保险领域上,与许多客户合作多年,针对特定人群量身订做保险方案,但是就从未加入算法评等研究。而这个结果离真正公平的结果是有一段差距的。

AIF360能以互动式的体验,引导使用者了解套件的概念以及功能,开发者可能会在一开始对于不同案例使用的指标或是算法产生困惑,AIF360则会提供参考资料作为引导。IBM期望,透过这个开源专案可以凝聚相关研究人员,并把研究成果转换成各产业可以使用的解决方案。

2018-09-24 14:31:00

相关文章