Услугата за разпознаване на лица на Microsoft вече е по-малка лошо за nonwhites

„УслугатаEnlargeMicrosoft

Microsoft е подобрила системата си за разпознаване на лица, за да го направи много по-добре да разпознавате хора, които не са бели и не са мъже. Компанията казва, че промените, които е направила, са намалили грешките проценти за тези с по-тъмна кожа до 20 пъти и за жени на всички цветове на кожата девет пъти. В резултат на това компанията казва, че разликите в точността между различните демографски данни са значително намален.

Допълнителна информация

Google dev се извинява, след като приложението Photos маркира чернокожите като Услугата за лице на Microsoft „горили“ може да разгледа снимки на хората и правят изводи за тяхната възраст, пол, емоция и различни други функции; може да се използва и за намиране на хора, които гледат подобно на дадено лице или идентифициране на нова снимка срещу известен списък с хора. Установено е, че системата е по-добра разпознаване на пола на белите лица и по-общо беше най-добре в разпознаването на черти на белите мъже и най-лошото с тъмнокожи жени. Това не е уникално за системата на Microsoft, или; през 2015 г. приложението Google Снимки класира чернокожите като горили.

Системите за машинно обучение се обучават чрез подаване на товар предварително класифицирани данни в някаква невронна мрежа. Тези данни има известни свойства – това е бял мъж, това е чернокожа жена, и така нататък – и мрежата научава как да идентифицира тези свойства. След като бъде обучен, невронната мрежа може да бъде използвана за класифицирането на изображенията никога досега не съм виждал.

Проблемът, че Microsoft, както и останалата част от индустрията, се сблъсква с това, че тези системи за машинно обучение могат да учат само от видяното. Ако данните за тренировката са силно изкривени към белите мъже, полученият разпознавател може да е страхотен идентифициране на други бели мъже, но безполезно при разпознаването на никого извън тази конкретна демографска. Този проблем е вероятен изострян от демографията на самата технологична индустрия: жени са значително по-малко представени, а работната сила е до голяма степен бял или азиатски. Това означава, че дори ярки проблеми могат да бъдат пренебрегван – ако няма много жени или хора с тъмна кожа на работното място, тогава неформалните вътрешни тестове вероятно няма да бъдат изправени пред тези „трудни“ случаи.

Тази ситуация създава предубедени системи: те са склонни да бъдат най-силен в съвпадение на хората, които са ги изградили, и по-лош всички останали. Пристрастията не са умишлени, но подчертават как отлагането на “алгоритъм” не означава, че системата не е свободна предразсъдъци или „справедливо“. Ако не се вземат мерки за справяне с тези проблеми отпред, системите за машинно обучение могат да отразяват всички същите пристрастия и неравенства на техните разработчици.

Отговорът на Microsoft беше в три части. Първо, компанията разшири разнообразието както от данните за обучението си, така и от еталонния показател данни, използвани за тестване и оценка на всяка невронна мрежа, за да се види колко добре изпълнява. Това означава, че разпознавателят има по-добра представа за как изглеждат белите не-мъже и че разпознавачите са слаби при идентифицирането на тези демографски данни е по-малко вероятно да бъдат избрани. Второ, Microsoft предприема нови усилия за събиране на данни изградете още по-широк набор от данни за обучение, с много по-голям фокус за осигуряване на достатъчно разнообразие от възраст, цвят на кожата, и пол. Накрая самият класификатор на изображения беше настроен на подобрете представянето си.

Компанията също работи по-широко за откриване на пристрастия и гарантира, че неговите системи за машинно обучение са по-справедливи. Това означава като се обръща по-голямо внимание на проблемите на пристрастията дори в началото на проект, различни стратегии за вътрешно тестване и нови подходи за събиране на данни.

Like this post? Please share to your friends:
Leave a Reply

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: