谷歌正在开发新的肤色分类方法,试图遏制科技产品存在的种族偏见
本文来自微信公众号“大数据文摘”(ID:BigDataDigest),36氪经授权发布。
近日,根据路透社报道,谷歌正在开发一种替代行业标准的肤色分类方法。
这一做法与近年来备受关注的种族话题有着密切关系。越来越多的技术研究人员和皮肤科医生表示,目前的肤色分类方法不足以评估某种产品是否对有色人种产生了偏见。
目前使用的肤色分类方法源自1970年代,是一种被称为菲茨帕特里克皮肤类型(FST)的六色标度。除皮肤科医生外,不少科技公司也依靠其来对人种进行分类,并用此来衡量面部识别系统或智能手表心率传感器等产品在不同肤色中的表现。
批评者说,FST对白皮肤有四种分类,而对“黑色”和“棕色”皮肤则分别只有一个大类,这无疑是无视了有色人种之间的多样性。
去年10月,美国国土安全部的研究人员在联邦技术标准会议上建议,放弃FST进行面部识别,因为它不能很好地代表不同人群的肤色范围。
对此,谷歌称,一直以来公司都在寻求更好的措施。
谷歌表示:“我们正在研究可能对产品开发有用的、具有替代性的、更具包容性的措施,并将与科学和医学专家以及有色人种社区合作。”
其实,关于这项革新,科技行业内收到的影响更大。相较于金融等行业,从事科技行业的白人更多。但随着人工智能提供支持的新产品扩展到医疗保健和执法等敏感和受监管领域,确保技术适用于所有肤色以及不同年龄和性别的重要性也随之越来越大。
此前,不少类型的产品提供了比FST丰富得多的面板。Crayola去年推出了24款肤色蜡笔,今年美泰公司的芭比时尚达人娃娃涵盖了9种色调。
这个问题对谷歌来说并不只表现在学术方面。当谷歌在2月份宣布某些安卓手机的摄像头可以通过指尖测量脉搏率时,它表示,无论用户的皮肤是浅色还是深色,读数的平均误差都只会保持在1.8%左右。
后来谷歌也提供了类似的保证,即皮肤类型不会显着影响视频会议中过滤背景的功能,也不会影响即将推出的用于识别皮肤状况的网络工具。
“起点”
已故哈佛大学皮肤科医生Thomas Fitzpatrick博士发明了一种量表,用于个性化紫外线辐射,以此来治疗银屑病。他通过询问“白人”的皮肤在阳光下经过一段时间后会出现多少晒伤或晒黑,将他们的皮肤分组为I到IV。
十年后,出现了“棕色”皮肤的V型和代表“黑色”皮肤的VI。
但该量表仍然是美国测试防晒产品法规的一部分,也仍然是评估患者癌症风险等的流行皮肤病学标准。
一些皮肤科医生表示,该量表是一种糟糕且过度使用的护理措施,并且经常与种族混为一谈。
“很多人会认为我是V型皮肤,这种皮肤很少甚至永远不会被晒伤,但事实证明我会。”宾夕法尼亚大学皮肤科医生Susan Taylor说,他于2004年创立了皮肤颜色协会,以促进对边缘化社区的研究。
直到最近,科技公司才对此开始上心。Unicode是一个监督表情符号的行业协会,2014年公司引用FST黄色以外的五种肤色为基础,称该比例“没有负面关联”。
2018年,一个题为“Gender Shades”的研究发现,面部分析系统往往在归类肤色较深的人种外经常出现错误,但仍推广使用FST来评估AI。该研究将FST描述为“起点”,后来进行类似研究的科学家表示,他们使用该量表是为了保持一致。
“作为针对相对不成熟的市场的第一个措施,它的目的是帮助我们识别危险信号。”专注于审计AI的研究员Inioluwa Deborah Raji说。
在4月份的一项测试人工智能检测深度伪造的研究中,Facebook的研究人员写道,FST“显然不包括棕色和黑色肤色的多样性”。尽管如此,他们还是发布了3,000个人的视频,用于评估人工智能系统,并根据八位人类评估者的评估附加了FST标签。
评估者的判断是核心。去年,面部识别软件初创公司AnyVision提供了部分名人的评分示例:前棒球巨星Derek Jeter是IV型,Tyra Banks是V,说唱歌手50 Cent是VI。
AnyVision表示,它同意谷歌重新考虑使用FST的决定。Facebook同样表示愿意采取更好的措施。
受到Black Lives Matter运动的启发,加州大学圣地亚哥分校的临床医生去年在Sleep杂志上写道,使用FST可能会使智能手表在读取深色皮肤人种的心率时存在较大误差。
微软承认FST的缺陷。苹果表示,它使用各种措施对不同肤色的人类进行测试,FST并不是唯一指标。Garmin表示,由于进行了广泛的测试,它认为读数是可靠的。
创立化妆公司Mob Beauty并帮助Crayola开发新蜡笔的Victor Casale说,他为粉底开发了40种色调,每种色调与下一种色调相差约3%,足以让大多数成年人区分。
他说,电子产品的色彩准确度表明技术标准应该有12到18种色调,“6种是肯定不够的”。
相关报道:
https://venturebeat.com/2021/06/20/google-searches-for-new-measure-of-skin-tones-to-curb-bias-in-products/
相关推荐
谷歌正在开发新的肤色分类方法,试图遏制科技产品存在的种族偏见
再曝黑人女员工离职,谷歌算法的“种族偏见”
纠正算法的偏见,究竟是要与机器斗还是与人斗?
人脸识别的肤色性别偏见背后,是算法盲点还是人心叵测?
人脸识别种族偏见:黑黄错误率比白人高100倍 | 美官方机构横评189种算法
FB组建新内部团队 致力于解决算法的种族偏见问题
人脸识别登上Nature封面!看脸的世界,AI却心怀偏见
强大如GPT的AI模型,咋成了歧视重灾区?
从性别歧视到招聘不公,如何让AI公平待人?
人工智能秘史(五):诞生于1980年代的算法偏见
网址: 谷歌正在开发新的肤色分类方法,试图遏制科技产品存在的种族偏见 http://www.xishuta.com/newsview45600.html
推荐科技快讯
- 1问界商标转让释放信号:赛力斯 94831
- 2人类唯一的出路:变成人工智能 18279
- 3报告:抖音海外版下载量突破1 17828
- 4移动办公如何高效?谷歌研究了 17547
- 5人类唯一的出路: 变成人工智 17382
- 62023年起,银行存取款迎来 10009
- 7网传比亚迪一员工泄露华为机密 8000
- 8顶风作案?金山WPS被指套娃 6446
- 9大数据杀熟往返套票比单程购买 6423
- 1012306客服回应崩了 12 6370