APP下载

WHO:富国建立的AI模型不见得适用于穷国

消息来源:baojiabao.com 作者: 发布时间:2026-02-14

报价宝综合消息WHO:富国建立的AI模型不见得适用于穷国
图片来源: 

WHO

世界卫生组织(World Health Organization,WHO)本周指出,人工智能(Artificial Intelligence,AI)虽然具有促进人类社会健康及医疗普及的潜力,但是可能存在偏误(bias),以富国搜集的资料训练的AI预测模型,用在经济较落后的国家上可能会不准确。

本周WHO发布关于《人工智能用于健康照护的伦理及治理》报告,说明以AI改善世界公共卫生有很大潜力,像是提升诊断和临床治疗、推动医药研究及提供疾病监控、疫情回应及医疗系统管理,理论上能缩小穷、富国之间的医疗鸿沟,但AI要为病患或社区居民带来好处,AI设计及实作上必须将伦理及人权等问题放在最前面。本报告也包含全球20位公卫、医学、法律、人权、科技及伦理领域的专家,对AI设计及实作提供的5大伦理原则及指引。

WHO报告列出的伦理原则包括,AI应保护人类自主,不伤害人权;促进人类福祉、安全和公共利益;透通,可被用户及开发人员及主管机关理解;应促进责任及可究责性。最后是AI的包容性及平等,即使各种种族、性别、性倾向、年龄层、收入,及能力的族群都能获得蒙受AI福祉的权利。

根据包容性及平等原则,WHO点出,AI和其他科技一样,必须尽可能普及共享、具包容性,顾及经济、通讯及健康环境的多元性。AI的设计应不只用于高收入国家,建立适合这些高收入地区的使用情境,也应顾及中低收入国家,并且应适用于各种装置、电信基础架构及资料传输带宽。AI开发人员因考虑语言的多样性,以及人民不同通讯能力和技术形态以跨越数位落差,以免产生偏误(bias)。

WHO相信,以高收入国家人民取得资料来训练的系统,运用在中、低收入国家人民身上,效果可能会打折扣。例如一个以单一类肤色为资料源建立的皮肤癌病变AI诊断系统,用在有多种肤色的国家社会中,可能无法产生精确的判断,进而提升这些国家人民的罹癌风险。

WHO建议AI系统的设计、实作和使用应留意此类问题。国家投资及相关的基础架构支援有助于去除AI系统偏误。最好能有使用族群参与设计,此外,使用开源软件,或是将技术开源都有助于扩大参与。

其他议题中,本指引也提及“人类担保”(human warranty)的概念,例如AI算法的开发及部署需有病患和临床医生等人类的评估,而如果AI科技使用出错,也应被究责。

科技界也已注意包括艺术生成、语音辨识、照片剪裁等AI应用,都发生在白人男性中的辨识率优于其他族群,也正致力于发展包容性AI。

2021-07-01 11:57:00

相关文章