Американские суды долгие годы использовали программу-расиста.

В большинстве случаев специальный алгоритм по странному стечению обстоятельств выносил решения против чернокожих подсудимых.

Спустя год пристального изучения учёные установили, что программа Compas, которую приняла к использованию американская судебная система, выдавала абсолютно расистские штампы в оценке рисков совершения тех или иных преступлений, сообщает Guardian.

По мнению учёных, анализировавших механику работы продукта, в программу заложили все человеческие предрассудки относительно расы и цвета кожи потенциальных преступников.

Частная компания — разработчик профильного ПО для американской судебной системы Northpointe от всех претензий в адрес расистской программы открестилась, однако исходный код по требованию экспертной группы не предоставила.

Представители некоммерческой Группы анализа данных по правам человека (HRDAG) в Сан-Франциско отметили, что машинное обучение и программы на основе искусственного интеллекта не помогают людям решать проблемы, а лишь автоматизируют давно устоявшиеся процессы человеческого анализа социального положения, цвета кожи и правонарушений.

Представитель компании — разработчика «сложного» программного обеспечения PredPol профессор Джефф Брэнтинг заявил, что данные таких программ всё равно будут приводить к многочисленным арестам тех же социальных и расовых групп людей, что и раньше. Роль машинного обучения в этом случае заключается лишь в том, что такой процесс может быть поставлен на поток.