Когда дело доходит до антисемитизма в социальных сетях, часть вины за его распространение падает на алгоритмы, управляющие основными платформами, пишет журналист JTA Асаф Шалев.

Но Антидиффамационная лига (ADL) надеется бороться с его распространением, создав собственный алгоритм. Организация объявила 8 марта, что создала систему под названием «Индекс онлайн – ненависти», назвав ее первым инструментом, когда-либо разработанным для измерения антисемитизма в социальных сетях. Программа может быстро просмотреть миллионы сообщений, чтобы обнаружить антисемитские комментарии и помочь в их удалении. Эта система использует алгоритм, основанный на искусственном интеллекте, для поиска и классификации постов как антисемитских. Затем эти посты передаются группе волонтеров и экспертов, чтобы сделать окончательный выбор. Система также отслеживает, удаляются ли сообщения в конечном итоге.

По словам генерального директора ADL Джонатана Гринблатта, чья организация в течение многих лет оказывает давление на крупные технологические компании по этому вопросу, «Индекс онлайн – ненависти» необходим, потому что усилия компаний, владеющих социальными сетями, по сдерживанию распространения языка ненависти на своих платформах, недостаточно прозрачны. «Мы будем использовать этот инструмент, чтобы выяснить, насколько хорошо платформы социальных сетей пресекают ненависть и насколько хорошо их модераторы контента реагируют на сообщения», — говорится в заявлении Гринблатта. Одна из целей проекта — продемонстрировать, что если ADL разработала технологию для отслеживания антисемитизма, Кремниевая долина, безусловно, может сделать то же самое и, следовательно, может сделать больше для решения этой проблемы.

Компании – владельцы социальных сетей в прошлом пытались бороться с антисемитизмом, но их послужной список в лучшем случае неоднозначен. «Фейсбук» (теперь известный как «Мета») потерпел неудачу после своего решения запретить отрицание Холокоста на своих платформах; инженеры разработали алгоритмы, которые также иногда блокировали образовательные посты, предназначенные для распространения информации о Холокосте. Для своего первого исследования ADL использовала свою систему для тщательного изучения «Reddit» и «Твиттера», собирая сообщения за одну неделю в августе прошлого года. ADL выбрала эти платформы, потому что они единственные, кто предоставляет открытый доступ к своим данным. «Фейсбук», напротив, обычно не позволяет сторонним организациям участвовать в исследованиях.

Алгоритм, используемый ADL, был обучен обнаруживать случаи возможного антисемитизма. В процессе, известном как машинное обучение, люди помечали комментарии как антисемитские и передавали их алгоритму, который, в свою очередь, начинал распознавать закономерности. Чем больше комментариев обработал алгоритм, тем лучше он стал отслеживать антисемитские комментарии. Антисемитские заявления, такие как «Евреи – люди-ящерицы, докажите, что я неправ» и «Еврейская магия контроля над разумом», были среди примерно 2000 сообщений «Reddit», выявленных системой ADL, из примерно 40 миллионов комментариев, добавленных в Reddit за эту неделю. Количество людей, просматривающих комментарий на «Reddit», частично определяется тем, «голосуют» пользователи за него или «против» — и в этом отношении есть хорошие новости.

Согласно отчету, опубликованному ADL по результатам анализа, пользователи в среднем оценивают антисемитские комментарии на треть хуже, чем другие типы сообщений. «Статистический анализ этих оценок показывает, что антисемитский контент на Reddit вознаграждается значительно меньше, чем не антисемитский контент», — говорится в отчете. В «Твиттере», который предоставляет лишь часть данных, ADL обнаружила около 27400 антисемитских твитов среди 440 миллионов, опубликованных за неделю, которые проверил ее алгоритм, и отметила, что эти твиты могли просмотреть около 130 миллионов человек. ADL предупредила, что она разработала свой алгоритм как ограниченный, и что он рассматривал только тексты на английском языке. А это означает, что видео, аудио и изображения, а также все, что написано на иностранном языке, были исключены из обзора. Большинство антисемитских комментариев оставались на обеих платформах в течение нескольких месяцев после публикации и не удалялись даже после того, как ADL предупреждала платформы о них.

Одной из проблем любой попытки искоренить антисемитские высказывания является определение термина «антисемитизм», поскольку ученые придерживаются самых разных взглядов на этот вопрос. Одним из особенно спорных вопросов является решение вопроса о том, когда критика Израиля переходит в антисемитизм. В отчете ADL говорится, что его алгоритм обучают штатные эксперты и волонтеры из еврейской общины. Это не означает, что человеческое суждение полностью отдано компьютерам. В системе ADL искусственный интеллект просто используется для просеивания массы контента, но именно люди в конечном итоге определяют, какие сообщения являются антисемитскими.

Чтобы помочь им в принятии решений, каждый волонтер получает учебник для начинающих, который также доступен на сайте ADL. В этом учебнике содержится ссылка на определение антисемитизма, разработанное Международным альянсом в память о Холокосте, которое оказалось спорным, поскольку оно сосредоточено на антиизраильских высказываниях. Некоторые примеры заявлений, которые можно считать антисемитскими, включают «утверждение, что существование Государства Израиль является расистским начинанием» и «отказ еврейскому народу в его праве на самоопределение». Критики говорят, что определение IHRA является неправильным, поскольку оно может делегитимизировать пропалестинский активизм, если оно будет принято университетами и государственными органами. Сторонники определения говорят, что любая дискуссия о термине «антисемитизм» сегодня должна включать обсуждение нападок на Израиль. В сообщении на своем сайте, предшествующем представлению алгоритма, ADL отвергает идею о том, что принятие определения может запретить критику Израиля, утверждая, что право на такую критику защищено конституцией США.