IBM开源统计偏差修正框架FairnessKit,要阻止种族歧视机器人产生
机器学习的本质就是一种统计歧视(StatisticalDiscrimination)的形式,但是当训练资料采样不足、过度采样,甚至是标签存在偏差,就会产生偏差的模型。
IBM开源统计偏差修正框架FairnessKi5,要阻止种族歧视机器人产生
机器学习的本质就是一种统计歧视(StatisticalDiscrimination)的形式,但是当训练资料采样不足、过度采样,甚至是标签存在偏差,就会产生偏差的模型。
IBM开源统计偏差修正框架Fairness Kit,要阻止种族歧视机器人产生
机器学习的本质就是一种统计歧视(Statistical Discrimination)的形式,但是当训练资料采样不足、过度采样,甚至是标签存在偏差,就会产生偏差的模型。
推特照片剪裁算法被指存在种族偏差,推特承诺进一步研究并开源成果
当同一张拼贴照同时存在黑人与白人脸孔时,在部分情况下,推特照片剪裁算法会倾向显示白人脸孔,而这样的现象引起推特用户的热烈讨论
Google推出机器学习公平性量测工具以评估模型偏见
Fairness Indicators工具可让开发团队量测模型的偏差,针对不同用户群组进行细微评估以利后续修补
Twitter首届AI算法偏差竞赛结果出炉:偏好较瘦、较年轻也较白的人像
在Twitter针对自家算法举办的抓漏竞赛中胜出的研究,显示出Twitter的图像剪裁AI模型,倾向保留符合刻板审美观的女性人像,会以性别、肤色、身材等外观,决定照片缩图结果
零偏差通过!黑芝麻智能荣获ISO 26262:2018 AS…
6月23日,全球功能安全技术中心SGS向黑芝麻智能颁发了ISO 26262:2018 ASIL D功能安全流程认证证书。...
意外发现!Sony 机身防震组件有裂痕
LensRentals 团队刚发布镜后距(Flange distance,又称法兰距)测试的第二部分结果。今次的对象则是大家都会接触到的消费级相机,其中包括:Sony ...
小鹏汽车回应篡改免费救援协议:不明确描述致偏差,部分情形下仍可免费救援
3月25日上午消息,小鹏汽车客服此前表示,为避免客户对规则理解产生歧义而优化了一下免费救援协议内容,并没有后台修订车主道路救援的权益。非产品质量问题而导致的无法行驶将不再提供免费道路救援服务,提供服务
人脸辨识对女性、深色人种辨识较差,微软与IBM着手改进
MIT媒体实验室测试微软、IBM与中国旷视(Megvii)的人脸辨识系统,发现这些系统辨识浅色人种性别的能力大过于辨识深色人种的性别,辨识度最差的则是深色人种的女性。