天下网吧 >> 网吧系统 >> 系统动态 >> 正文

这是机器人选出的全世界“最好看的人”,略带偏见

2016-9-19不详佚名

全球各种选美大赛选出的“佳丽”,你是不是一直看不惯?是不是质疑人类太主观的眼光?曾经幻想着能有一种客观标准,能使选美的结果让所有人惊艳。全球首次由人工智能担任评委的国际选美大赛,就出自这样的初衷。但机器人的选择,也引发了一系列争议。

这个选美大赛名字为Beauty.AI 2.0,是第一届由“机器”担任裁判的国际选美比赛,由一群俄罗斯和香港的青年搞的青年实验室(Youth Laboratories)发起,该实验室获得了微软和英伟达支持。

这是机器人选出的全世界“最好看的人”,略带偏见

Beauty.AI 2.0对来自1000多个国家的6000张自拍照进行了评估,借助算法综合考虑了年龄、皮肤、对称性等因素,还将参赛者的外貌与演员和模特进行了对比,最终按照年龄和性别对优胜者进行了分组评定。

以下是18至29岁年龄组排名前5的女性:

这是机器人选出的全世界“最好看的人”,略带偏见

▲机器人的“审美”

看到这样的结果,你的内心是崩溃的,对不对?这不是你一个人的感觉,相信绝大多数人看到这个结果内心都会蹦出一个字。

Beauty.ai表示,很多选手都写信表示抗议,其中一人写道:“你们的‘机器人’价值何在?随便逛逛商场,我就能找到比你们的选美大赛‘优胜者’更漂亮的人。”

Beauty.ai首席科学家亚历克斯·扎沃伦科夫(Alex Zhavoronkov)则辩称:“我也无法认同机器人选出的部分优胜者,但整体还算不错。”

作为该算法的一个指标,AntiAgeist会评估一个人相对其真身年龄的年轻程度,将参赛者的真实年龄与系统预测的真实年龄以及此人看上去的年龄进行对比。在上图中,Lu Sophia得分最高,因为真实年龄达到18岁的她,在机器人眼中只有13岁。

该算法中的PIMPL指标评估了肤色,RYNKL则着眼于皱纹。

MADIS则将参选者与数据库中的演员和模特的面部进行了对比。其中一个组件将其与数据库中的平均美貌进行对比,另外一个则将其与这些“美人”的特点进行对比。

最后,Symmetry Master则考察了面部的对称性。

Beauty.ai由Youth Laboratories负责运营,这家只有6个人的公司专门通过技术来评估一个人的美貌和年轻程度。该公司目前的主要产品是RYNKL,可以作为单独的手机应用下载,并且已经授权给一些整容医院使用。该团队还在开发和外包一些新的算法,以期应用在Beauty.ai 3.0中——这场新的选美比赛将于今年晚些时候举行。

以下为此次选美比赛其他年龄组和性别的获胜者:

这是机器人选出的全世界“最好看的人”,略带偏见

这是机器人选出的全世界“最好看的人”,略带偏见

这是机器人选出的全世界“最好看的人”,略带偏见

这是机器人选出的全世界“最好看的人”,略带偏见

这是机器人选出的全世界“最好看的人”,略带偏见

算法的“偏见”

另外一个令这套系统的创造者感到心灰意冷的是,他们发现胜出者都有一个明显的特点:机器人不喜欢深色皮肤的人

44位胜出者几乎都是白人,只有少数几位亚洲人,黑人则只有1位。尽管多数参赛者都是白人,但很多有色人种也都提交了照片,包括大量的印度人和非洲人。

随之而来的争议引发了激烈的讨论:算法为什么会存在偏见,并在无意间产生冒犯性的结果?

当微软今年3月推出了“千禧一代”聊天机器人Tay时,它很快学会了种族主义言论,并在Twitter上传播新纳粹观点。在Facebook上月去掉了负责筛选“趋势”新闻的人类编辑后,计算机算法很快就把假新闻和粗俗消息推送到News Feed中,包括一篇有关男子用鸡肉三明治自慰的文章。

虽然这次看似带有种族主义意味的选美比赛引发了各界嘲笑,但计算机科学家和社会公正倡议者却表示,在其他行业和领域,如果带有偏见的人工智能系统得到大范围应用,那绝对不是一件好笑的事情。在某些情况下,甚至会给有色人种带来灾难性的后果

Beauty.AI由微软支持的深度学习组织Youth Laboratories开发,它依靠庞大的照片数据库来建立一种算法,借此评估人们的美貌。虽然有很多原因可以解释算法为何偏向白人,但Beauty.AI首席科学官亚历克斯·扎沃伦科夫(Alex Zhavoronkov)的主要问题在于,该项目在建立美貌评价标准时使用的数据,并没有涵盖足够的少数族裔人群。

虽然该组织开发算法时并没有将浅色皮肤作为美貌的标准,但系统获得的数据实际上却导致机器人裁判得出了这样的结论。

“如果数据库中的有色人种不够多,就会得出偏见。”扎沃伦科夫说,他也对结果颇感惊讶。“当你训练计算机算法识别某种形态时……你手上的数据可能不够充分,这些数据也有可能存在偏见。”

对于带有偏见的算法,最简单的解释就是:负责创造这些算法的人本身就带有根深蒂固的偏见。换句话说,尽管人们认为算法是公正、客观的,但这些算法却往往会延续和放大现有的偏见。

哥伦比亚大学法学和政治学教授伯纳德·哈考特(Bernard Harcourt)认为,Beauty.AI的结果“完美地诠释了这个问题”。他曾经研究过“预测性警务”,并发现这项业务对机器的依赖越来越大。“根本不可能在选美过程中不顾文化和种族因素,得出完全中立的结果。”

本文来源:不详 作者:佚名

声明
声明:本站所发表的文章、评论及图片仅代表作者本人观点,与本站立场无关。若文章侵犯了您的相关权益,请及时与我们联系,我们会及时处理,感谢您对本站的支持!联系Email:support@txwb.com,系统开号,技术支持,服务联系QQ:1175525021本站所有有注明来源为天下网吧或天下网吧论坛的原创作品,各位转载时请注明来源链接!
天下网吧·网吧天下