2023-09-26 14:07

这些新工具可以减少人工智能视觉系统的偏见

传统上,计算机视觉中的肤色偏差是用菲茨帕特里克量表来测量的,该量表从浅色到深色。索尼(Sony)人工智能伦理研究员威廉•通(William Thong)表示,该量表最初是为了衡量白皮肤晒黑程度而开发的,但后来被广泛用作确定种族的工具。它被用来衡量计算机系统的偏差,例如,通过比较人工智能模型对浅色皮肤和深色皮肤的人的准确率。

但索尼(Sony)人工智能伦理全球主管Alice Xiang表示,用一维尺度描述人的皮肤是一种误导。通过基于这种粗略的尺度将人们分类,研究人员错过了影响的偏见,例如亚洲人,他们在西方人工智能数据集中的代表性不足,可以分为浅肤色和深肤色两类。而且它也没有考虑到人的肤色会改变的事实。例如,研究人员指出,随着年龄的增长,亚洲人的皮肤会变得更黑、更黄,而白人的皮肤会变得更黑、更红。

Thong和Xiang的团队开发了一种工具,与《麻省理工科技评论》独家分享,该工具将肤色尺度扩展到两个维度,测量肤色(从浅色到深色)和肤色(从红色到黄色)。索尼在网上免费提供这个工具。

Thong说,他的灵感来自巴西艺术家angsamicica Dass,他的作品表明,来自相似背景的人可以有各种各样的肤色。但代表所有肤色并不是一个新奇的想法。化妆品行业多年来一直在使用同样的技术。

“对于任何不得不选择粉底色的人来说……你都知道,重要的不仅仅是一个人的肤色是浅色还是深色,还包括暖色调还是冷色调,”Xiang说。

莱斯大学(Rice University)研究计算机视觉模型偏差的助理教授古哈•巴拉克里希南(Guha Balakrishnan)表示,索尼在肤色方面的工作“让人们了解了人们一直忽视的缺失部分。”

测量偏差

目前,研究人员还没有一种标准的方法来衡量计算机视觉中的偏差,这使得比较系统变得更加困难。

为了使偏见评估更加简化,meta开发了一种新的方法来衡量计算机视觉模型中的公平性,称为计算机视觉评估中的公平性(FACET),可用于一系列常见任务,如分类,检测和分割。meta的人工智能研究员劳拉·古斯塔夫森(Laura Gustafson)表示,FACET是第一个包含许多不同计算机视觉任务的公平性评估,它比其他偏见工具包含了更广泛的公平性指标。