Разработчики соцсети признали предвзятость своего алгоритма по обрезки фотографий.

С 2018 года Twitter применяет «умную обрезку» фотографии для превью «твита». Система должна была выделять наиболее интересные объекты на изображении и помещать и в центр обрезки.

Как оказалось, ИИ, который занимался данной манипуляцией, оказался «расистом» и «сексистом». Нейронная сеть при обрезании чаще выбирала белокожих мужчин и женщин, чем людей с тёмным цветом кожи. В то же время, между мужчиной и женщиной алгоритм выбирал женщину, но при этом в центр кадра могли попасть не голова человека, а нога или грудь.

Такие наблюдения пользователей были перепроверены командой Твиттера и как оказалось предположения оказались верны.

На данный момент Твиттер решил отказаться от обрезки автоматической обрезки изображений. Вполне возможно, что ИИ доработают, и он вернётся в ближайшем будущем.