股升网

Discuz! Board 股票配资 资讯 查看内容

资讯

订阅

外媒:将奥巴马照片酿成白人照片的呆板学习工具或能展现什么是AI偏见

2020-06-24| 来源:互联网| 查看: 317| 评论: 0

摘要: 原标题:外媒:将奥巴马照片酿成白人照片的呆板学习工具或能展现什么是AI偏见来源:cnBeta.COM据外媒TheVerge报道......
 

原标题:外媒:将奥巴马照片酿成白人照片的呆板学习工具或能展现什么是AI偏见 来源:cnBeta.COM

据外媒The Verge报道,近日一张令人震惊的图片说明了人工智能研究的“根深蒂固的”偏见。将美国汗青上第一位黑人总统-奥巴马的低辨别率照片输入一个旨在天生去像素化人脸的算法后,输出的是一张白人照片。

别的,用同样的算法从低辨别率的输入中天生女演员刘玉玲(Lucy Liu)或国集会员Alexandria Ocasio-Cortez的高辨别率图像,所得到的脸看起来明显是白人。正如一条引用奥巴马例子的热门推文所说。“这张图片充实说明了人工智能中偏见的伤害性。”

但是,是什么缘故原由导致了这些输出,它们究竟告诉了我们配资公司 AI偏见的什么?

天生这些图像的程序是一种叫做PULSE的算法,它使用一种被称为upscaling的技能来处置惩罚视觉数据。缩放就像你在电视和影戏中看到的 "放大和增强 "的典故,但是,与好莱坞差别的是,真正的软件不能凭空天生新的数据。为了将低辨别率的图像酿成高辨别率的图像,软件必须使用呆板学习来弥补空缺。

股升网在PULSE的例子中,做这项事情的算法是StyleGAN,它是由NVIDIA的研究职员创建的。虽然你从前可能没有听说过StyleGAN,但你可能对它的事情很熟悉。它是卖力制作那些令人不寒而栗的传神人脸的算法,你可以在ThisPersonDoesNotExist.com等网站上看到这些传神的人脸,这些人脸经常被用来天生虚伪的社交媒体资料。

PULSE所做的是使用StyleGAN来“想象 ”像素化输入的高辨别率版本。它不是通过“增强”原始的低辨别率图像,而是通过天生一个全新的高辨别率面貌,当像素化后,看起来与用户输入的面貌相同。

这意味着每张去像素化的图像都可以以各种方式举行放大,就像一套食材可以做出差别的菜肴一样。并不是像 "放大和增强 "的套路那样,算法是在图像中 “发明 ”新的细节,而是在发明新的面貌,还原输入数据。这种事情在理论上已经有几年的时间了,但是,就像人工智能世界经常产生的那样,当本周末在网上分享了一个易于运行的代码版本时,它引起了更多人的存眷。这时,种族差异开始跃然纸上。

PULSE的创造者说,这个趋势很明显:当使用该算法来缩放像素化的图像时,该算法更多的是天生具有白人特性的面貌。

股升网“看起来,PULSE产生白人面貌的频率确实比有色人种的面貌高得多,”该算法的创造者在Github上写道。“这种偏见可能是继承自StyleGAN被训练的数据集[......],只管可能另有其他我们不知道的因素。”换句话说,由于StyleGAN是在数据上训练的,当它试图得出一个看起来像像素化输入图像的人脸时,它默认为白人特性。

这个问题在呆板学习中极为常见,这也是面部辨认算法在非白人和女性面部上体现较差的缘故原由之一。用于训练人工智能的数据通常偏向于单一的生齿统计学,即白人男性,当程序看到不属于该生齿统计学的数据时,它的体现就会很差。不巧的是,在AI研究中占主导职位的是白人男性。

但奥巴马的例子究竟展现了什么偏见,以及它所代表的问题可能如何解决,这些都是庞大的问题。事实上,它们是云云庞大,以至于这张单一的图片在人工智能学者、工程师和研究职员之间引发了猛烈的分歧。

在技能层面上,一些专家并不确定这甚至是一个数据集偏差的例子。AI艺术家Mario Klingemann提出,PULSE选择算法自己,而不是数据,才是罪魁罪魁。Klingemann指出,他可以或许使用StyleGAN从相同像素的奥巴马图像中天生更多的非白人照片输出,如下图所示。

这些面貌是使用 "相同的观点和相同的StyleGAN模子 "天生的,但与Pulse的搜索要领差别,Klingemann说,我们不能真正从几个样原来判断一个算法。“可能有数百万个可能的面貌,都会还原成相同的像素模式,而且全部的面貌都是同样的'正确',”他告诉The Verge。

这也是为什么如许的工具不太可能用于监控目的的缘故原由。这些历程所创建的面貌都是虚构的。但不管是什么缘故原由,算法的输出似乎都有偏向性--这是研究职员在该工具遍及使用之前没有注意到的。这说明了一种差别的、更普遍的偏见:一种在社会层面运作的偏见。

股升网AI责任制研究者Deborah Raji告诉The Verge,这种偏见在AI世界里太典型了。“鉴于有色人种的基本存在,不对这种情况举行测试的疏忽是令人震惊的,很可能反应了我们在谁能建立这种体系方面继续看到缺乏多样性,”Raji说。“有色人种并不是离群索居。我们不是'边沿案例',作者可以任意忘记。”

股升网一些研究职员似乎只热衷于解决数据方面的偏见问题,这正是引发奥巴马形象的更大争论的缘故原由。Facebook首席人工智能科学家Yann LeCun在推特上对该图片举行了回应,称 “当数据出现偏差时,ML体系就会出现偏差”,并增补说,这种偏差是一个“在部署的产物中比在学术论文中 严重得多的问题。”因此,他成为了这些对话的热门。

许多研究职员,其中包括Raji,对LeCun的框架提出了贰言,指出人工智能中的偏见受到更遍及的社会不公正和偏见的影响,仅仅使用 "正确 "的数据并不能处置惩罚更大的不公正。另有人指出,纵然从纯技能修复的角度来看,“公平”的数据集每每也不是什么好工具。比方,一个准确反应英国生齿结构的人脸数据集将以白人为主,由于英国以白人为主。在这个数据上训练的算法,在白人面貌上的体现会比非白人面貌更好。换句话说,“公平”的数据集仍然可以创建有偏见的体系。在厥后Twitter上的一个帖子中,LeCun认可AI偏见有多种缘故原由。

股升网Raji告诉The Verge,她也对LeCun提出的研究职员应该比生产商业体系的工程师更少担心偏见的发起感到惊讶,这反应了该行业最高层缺乏意识。“Yann LeCun领导着一个以研究许多应用研究问题而著名的行业实验室,他们经常寻求产物化,”Raji说。“我真的无法理解,处于该位置的人如何不认可研究在制定工程部署规范方面的作用。” The Verge接洽了LeCun征求意见,但暂未收到回复。

The Verge认为,许多商业化的人工智能体系都是直接从研究数据和算法中建立起来的,没有对种族或性别差异举行任何调解。如果不能在研究阶段就解决偏见问题,只会让现有的问题长期存在。那么,从这个意义上说,奥巴马图像的价值并不在于它袒露了单一算法的单一缺陷,而是它在直观的层面上转达了人工智能偏见的普遍性。然而,它所隐藏的是,偏见的问题远比任何数据集或算法更深。这是一个普遍存在的问题,需要的不仅仅是技能上的修复。

正如一位研究职员Vidushi Marda在Twitter上对算法产生的白人面貌图像做出的回应。“如果需要明确指出的话, 这不是呼吁数据集的多样性, 或是提高性能的准确性。这是呼吁机构和小我私人从根本上重新思量设计、开发、部署这项技能。”

分享至 : QQ空间

10 人收藏


鲜花

握手

雷人

路过

鸡蛋

收藏

邀请

上一篇:暂无
已有 0 人参与

会员评论

社区活动
美华盛顿州强制全州佩戴口罩 违规或面临90天监禁

股升网 王队和我们介绍,在欧洲的人,压力相对小,以德国为例,整个国家【....】

654人往期回顾
配资公司 本站/服务条款/广告服务/法律咨询/求职招聘/公益事业/客服中心
Copyright ◎2015-2020 黎城期货配资 网版权所有 ALL Rights Reserved.
Powered by 黎城期货配资 网 X1.0