белый снег - это расизм

Технологию распознавания лиц обвинили в расизме.

Системы распознавания лиц в 100 раз чаще ошибаются, когда улавливают изображения темнокожих людей и азиатов.

В зависимости от алгоритмов технология ошибалась в 10-100 раз чаще, улавливая изображения людей с азиатской внешностью и темнокожих людей. Самый высокий процент ложноположительных результатов зафиксирован во время тестирования технологии на индейцах, рассказали ученые Национального института стандартов и технологий (NIST).

При этом программное обеспечение (ПО) для распознавания лиц, произведенное азиатскими компаниями, более точно определяло азиатские лица — это говорит о том, что разработчики должны использовать большее разнообразие данных для обучения систем, отметили в NIST. Технология также часто ошибается при попытке идентификации женщин.

Всего эксперты изучили работу 99 систем распознавания лиц, среди которых были Intel, Microsoft, Panasonic, SenseTime и Vigilant Solutions. Компания Amazon отказалась предоставлять свое ПО для исследования, хотя еще в апреле научные сотрудники MIT выяснили, что ее технология Rekognition допускает намного больше ошибок при идентификации афроамериканцев, чем белых людей.

Способность системы распознавать людей зависит от разработчиков. Чаще всего алгоритмы обучают на стандартной базе данных, состоящей из снимков белых людей со стандартной внешностью, сообщал The Next Web. Ранее +1 рассказывал, как технологии не могут идентифицировать трансгендерных и небинарных людей.

+1