Риторика ненависти в Интернете. Специалист по политикам YouTube: «Ненависть действует намного быстрее, чем позитивные новости»

Интернет ежедневно посещают миллионы пользователей. Они косвенно становятся участниками онлайн-насилия, сексуальных домогательств, риторики ненависти или дискриминации. Согласно исследованию, проведенному Европейским парламентом, 20% молодых женщин стали жертвами сексуальных домогательств в Интернете в 2018 году в государствах-членах Европейского союза, и три процента риторики ненависти в социальных сетях адресовано женщинам.

Конечно, владельцы социальных сетей и других онлайн-платформ не несут ответственности и не могут быть привлечены к ответственности за первоначальный акт насилия, домогательств или распространения ненависти. Однако компании устанавливают правила, которым должны следовать пользователи.

Друзья, сегодня в подкасте cuMINTE мы обсуждаем риторику ненависти и онлайн-домогательства, их последствия, а также политику IT-гигантов по борьбе с этими явлениями. Мой собеседник – Дмитрий Слюсаренко, специалист по политикам в компании Google. В частности, Дмитрий специализируется на проблеме онлайн-домогательств и риторики ненависти в департаменте политик YouTube, который является частью компании Google. На данный момент Дмитрий находится в Сан-Франциско, поэтому мы беседуем с ним через социальные сети. Дмитрий, здравствуйте!

После почти 10 лет работы в некоммерческом секторе в Молдове Вы выбрали частный сектор, Google, в Соединенных Штатах Америки. Как это произошло?

Дмитрий Слюсаренко: Я десять лет занимался юридической практикой в Молдове в области прав человека. Я работал в Promo-Lex, крупной правозащитной организации в Молдове. Там я в основном занимался стратегическим судебным производством в области дискриминации и смежных областях. Последние три года я специализировался на риторике ненависти – явление не новое, но растущее особенно с появлением социальных сетей. Тогда мне это казалось перспективным. Я занимался особым проектом по мониторингу риторики ненависти, с точными данными и статистикой. Пока я работал над этим проектом, я понял, что это идет рука об руку с передовыми технологиями, всевозможными алгоритмами, искусственным интеллектом, который используется для анализа онлайн-контента. Объем просто огромен. Все эти технологии помогают выявить выражения ненависти. Я работал над очень деликатными, интересными делами. Появилась возможность уехать в США, получить степень магистра. Я попал туда в период коронавируса, и мои планы получить работу в этой области испарились. Я воспользовался этим временем для подготовки к подаче заявок в университеты. Это довольно сложный процесс. Он требует много времени и усилий. Меня приняли в большинство университетов, в которые я хотел попасть. Я выбрал Калифорнийский университет в Беркли. Я прошел год магистратуры, узнал все, что меня интересовало в области регулирования онлайн-платформ. Мне нужно было подать заявку на работу. Я ходил на собеседования, и Google принял меня.

Недавно Вы объявили, что возглавите усилия YouTube по разработке глобальной политики в отношении риторики ненависти и домогательств в Интернете. Когда Вы начали свою работу? Что именно Вы делаете в Google?

Когда ты заходишь на YouTube, публикуешь что-то или пишешь комментарий и он удаляется, изменяется, становится невидимым, это сделал кто-то из нашей команды или кто-то, кто работает с нашей командой. Мы – те, кто создает правила. Они называются политиками. Политики, будучи глобальными, влияют на множество различных областей. По этой причине существует множество команд, которые специализируются на монетизации, рекламе, всевозможной дезинформации и т.д., вплоть до экстремизма, терроризма, всевозможного насилия. И наша команда занимается домогательствами и риторикой ненависти. Что это значит? Несколько команд сотрудничают, чтобы контент, который появляется на YouTube и противоречит политике по борьбе с ненавистью или домогательствами, был удален или сокращен в алгоритмах рекомендаций, чтобы он не был популярным. В целом, мы занимаемся этим – поддерживаем чистоту YouTube от ненависти, дезинформации, атак на личность и т.п. Это огромное усилие, как я понял с тех пор, как работаю здесь. Тысячи людей работают ради общей цели каждый день. Это глобальное усилие. Сегодня мы говорим о Бразилии, завтра мы можем говорить об Индии, и во всех уголках мира что-то происходит. Усилия огромны и сложны.  

В Вашей команде есть люди, которые занимаются политиками, и те, кто занимается технической стороной?     

Это вертикальная структура. Существует вертикаль, которая охватывает все, от политик до реализации, выполнения, анализа, статистики и инженерии – люди, которые создают всевозможные алгоритмы. Это называется вертикалью, и моя роль в этом называется Policy Lead, то есть лидер, я возглавляю действия по систематизации процесса создания политики. Чтобы она была организована и согласована со всеми командами.

Вы сейчас разрабатываете политики или руководствуетесь политиками, созданными ранее?

И то, и другое. Во внутренней структуре YouTube есть много политик. Область риторики ненависти разделена на подразделы политик, и все они должны быть скорректированы. Иногда необходимо создавать новые политики, потому что это явление развивается. Люди ищут способы обмануть систему. Если есть алгоритм, который удаляет плохое слово, люди используют разные символы вместо буквы, чтобы обойти алгоритм и сохранить комментарий или видео. Соответственно, политики нужно постоянно корректировать, изменять. Другой пример – когда появляются новые области, например, такая область, как интерсекционность. Когда несколько групп людей по-разному проявляются в видео. И сложно применять политики по отдельности. Тогда разрабатываются новые политики. Мы делаем обе вещи, корректируем и старые тоже.

Насколько серьезной Вам кажется ситуация с риторикой ненависти и домогательствами в Интернете в целом и в социальных сетях в частности?

Для меня ненависть в Интернете, как своего рода ковид – невидимый, но очень сильно влияет на нас. К этому выводу мы пришли еще в Молдове, когда проводили мониторинг риторики ненависти. Невозможно измерить, насколько сильно на нас влияет ненависть, невозможно измерить то, что мы читаем в Интернете или насколько это влияет на наше психическое здоровье. Но этим явлением нельзя пренебрегать. Если бы был алгоритм, который мог бы это измерить, я уверен, что мы бы увидели, что эффект разрушителен. Поскольку мир переходит в общение в Интернете, очевидно, что увеличиваются виды взаимодействия и выражения негативных эмоций, призывы к насилию, риторика ненависти, дискриминация. В YouTube зарегистрировано почти 3 миллиарда пользователей, что очень много. Официально, согласно статистике, я думаю, что около 1-2% контента на YouTube – это риторика ненависти, а это много. По моим подсчетам, каждый час загружается около 500 часов контента с выражением ненависти. Это не статистика, это мои личные вычисления. Таким образом, на YouTube ежедневно загружается очень много контента. Ненависть влияет на нас, особенно на молодые поколения, которые все чаще пользуются Интернетом. Не только психологически, но и на то, как мы развиваемся, учимся, видим мир, взаимодействуем с миром. Здесь, в США, риторика ненависти считается проблемой, и ею серьезно занимаются. И в Европе тоже. Я видел, что в Германии открыли центр для жертв кибер-ненависти. Это серьезное явление.

Каковы худшие последствия для людей, долгосрочные и краткосрочные последствия, онлайн и даже офлайн?

Я думаю, что одним из наиболее заметных последствий является то, что уязвимые сообщества оказываются под влиянием стереотипов и предрассудков. Это женщины, которые подвергаются насилию, люди с ограниченными возможностями или цветные люди. Эти социальные группы в первую очередь сталкиваются с этой волной агрессии. Когда этот конфликт возникает в реальной жизни, эта нагрузка негативных эмоций в Интернете очень легко взрывается. Это можно увидеть в США в school shootings, стрельбе в школах – трагическое и очень распространенное явление, когда дети стреляют в других детей в школах или общественных местах. Другой эффект заключается в том, что в людях просто увеличивается степень нетерпимости, и чем больше ненависти, тем больше она развивается и тем более сильное влияние оказывает. Ненависть действует намного быстрее, чем позитивные новости или обсуждение положительных явлений. Намного легче принять близко к сердцу ненависть, чем что-то конструктивное. Тогда это становится автоматическим, очень быстро распространяется среди людей. Еще одно воздействие, которое приходит на ум, это то, что риторика ненависти препятствует конструктивным обсуждениям. Одна из основных целей, которую мы ставим перед собой, – это обеспечить конструктивное обсуждение в публичном пространстве. Идет ли речь о политике, лечении какой-либо болезни и т.д., хочется конструктивных обсуждений, чтобы люди использовали свои интеллектуальные способности и пришли к истине. Когда появляется элемент ненависти, он уменьшает конструктивный диалог, все сводится к ненависти.

Что именно компании, владеющие социальными сетями, делают, чтобы бороться с этими явлениями? Вы работаете на YouTube. Какие усилия вы предпринимаете?

Работа ведется по стратегическим сегментам. Многое делается. Самое главное – создание правил и максимально эффективная модерация онлайн-сообщества, чтобы, с одной стороны, регистрировать участие людей и обеспечивать их свободу слова, а с другой стороны, не допускать всех этих негативных явлений, происходящих в Интернете. Прилагаются огромные усилия. Работа ведется над научным, исследовательским сектором, над научными подходами, с экспертами для поиска эффективных методов регулирования этих явлений. С другой стороны, используются новые технологии, о которых я кое-что узнал за время нахождения в Беркли и Google, но мне кажется, я от них далек, и мне потребовалась бы целая жизнь, чтобы их понять. Есть много новых технологий, которые могут очень легко классифицировать дискриминацию и риторику ненависти. Классификаторы – это, по сути, ключевые слова, признанные элементами ненависти. Например, когда вы говорите цветному человеку слово на букву N, это классификатор, который алгоритмы могут легко распознать и найти эти случаи, и они могут быть автоматически удалены или отправлены модератору для анализа. Если вы публикуете контент с элементами ненависти, у вас отнимают право монетизировать, то есть вы больше не можете получать деньги. Для многих это значительный доход. Сейчас в Интернете делают много денег. Вы также рискуете тем, что ваши видео будут удалены из списка рекомендаций, чтобы их никто не видел. Есть сотни способов инвестировать в сообщества, для их просвещения. Лучший ответ получаешь, когда люди образованы, знают свои права, активны и борются за свои права. Инвестируют в образование. Google как компания имеет отдельную программу – Empowering Vulnerable Communities (поддержка уязвимых сообществ). Много денег выделяется на строительство школ, улучшение доступа различных сообществ к образованию, возможностям, работе и т.д.  Это часть глобального явления – Literacy (грамотность), который в значительной степени сосредоточен на разработке новых методов противодействия всевозможным онлайн-явлениям.    

 

Насколько легко отслеживать риторику ненависти в Интернете, который является огромным пространством? Какие технологии вы используете для этого?

Есть внутренние методы и технологии, о которых я не могу говорить. Многие из них находятся на разных стадиях развития. Мы используем бета-версии различных технологий. Хочу пояснить. Большая часть онлайн-модерации на YouTube выполняется вручную. Алгоритмы на данный момент работают намного лучше в Facebook, где присутствует текстовый формат. Текст намного легче модерировать, чем видео. Для видео нужны высокоразвитые алгоритмы, а для каждого классификатора (слова) нужен отдельный алгоритм. Это очень большая работа, алгоритм выучить сложно. Он как ребенок: даешь ему несколько слов – он учится; затем еще два слова, и так миллионы версий и комбинаций. Это требует очень много времени и инвестиций. Риторика ненависти очень контекстуальная. Все зависит от контекста. Можно сказать слово с определенной интонацией, с хорошим смыслом, похвалить. И можно сказать то же слово с другой интонацией, с отрицательным смыслом. Соответственно, на данный момент это могут делать только люди. Поэтому работают тысячи людей во всех уголках мира, и у нас есть хабы на разных континентах, которые весь день работают только над этим – смотрят видео и решают, адекватны они или нет. Обычно промежуточные алгоритмы выявляют что-то проблемное, после чего эти люди проверяют вручную. YouTube опирается на сигналы от самих пользователей. Этот инструмент очень часто используется в YouTube. Существуют и другие методы работы, партнерские отношения с гражданским обществом, которое сообщает о блоках – похожих случаях, на которые поступают общие жалобы.    

Допустим, вы обнаружили случай риторики ненависти или домогательства. Что вы делаете? Просто удаляете контент? Или это более сложная процедура? Как быстро такой контент может быть удален?

Я не могу объяснить внутреннюю процедуру. Но в целом это работает так, как если бы вы подали жалобу. Кто-то рассматривает дело в первой инстанции, принимается решение. Вы можете его обжаловать. И на это обжалование выдается другое решение. Право на обжалование всегда обеспечивается. Дело в том, что внутри часто случаи бывают сложными и попадают в так называемую grey area, серую зону, в которой политика либо неясна, либо еще не охватывает недавно возникшую область. В таких случаях необходимо участие нескольких специалистов. Если дело особенно сложное, оно попадет к нам – команде политик. Мы последняя ступень вынесения вердикта.    

Есть ли у IT -гигантов специальные рычаги, с помощью которых они могут вести мониторинг того, что публикует пресса? Которая в Молдове, кстати, является одним из основных источников распространения риторики ненависти, согласно последним отчетам.

Это одна из самых деликатных тем, особенно в контексте войны в Украине, когда появляется много СМИ, а также всевозможных каналов, которые называют себя СМИ. Чрезвычайно сложно определить, какая часть того, что они публикуют, является информативным контентом и каков уровень сбалансированности. В целом, YouTube должен делать всевозможные исключения для СМИ, чтобы можно было охватить как можно больше контента. YouTube позволяет охватить видео, в котором присутствует риторика ненависти. Но необходимо, чтобы присутствовали признаки того, что этот контент является информативным, или документальным, или имеет образовательную цель. А если это просто риторика ненависти, даже если материал опубликован каким-либо СМИ, он вероятно будет удален или будет применена другая мера. И когда появляются разнообразные СМИ, которые на самом деле не являются СМИ, – над этим очень много работают, мы думаем о том, какой подход применить. Большинство решений принимается индивидуально. Анализируется каждый отдельный случай, проверяется весь контент, опубликованный этим СМИ, затем принимается решение о том, удаляются ли кадры из видео или весь аккаунт, если это пропаганда или разжигание ненависти.    

Дмитрий, что Вы можете посоветовать нашим слушателям по поводу поведения в Интернете?

Онлайн, как и офлайн, нужно обращаться с людьми точно так, как ты хочешь, чтобы они обращались с тобой. Присутствие стекла перед нами не убирает из нас человечность. У человека, с которым вы говорите, могут быть свои слезы, свои проблемы, своя боль. Нужно помнить, что как разные деликатные темы действуют на тебя, так же они могут действовать и на него. Каждый случай риторики ненависти, каждое высказывание, подстрекающее к насилию или дискриминации, – небольшой кирпичик в огромном здании ненависти, которое однажды рушится и в кого-то стреляют, начинается война, страна рушится. Потому, что ее лидерами движет ненависть, пропаганда, все самое плохое. Нужно просто быть людьми.

Дмитрий, спасибо за беседу и за завершающий ее совет.

Уважаемые слушатели, я также призываю вас прислушаться к совету моего собеседника. Кроме того, сообщайте о выражениях ненависти и о домогательстве в Интернете, свидетелями которых вы становитесь. И не забывайте: фильтруйте рассудительно! Следите за нами в Google Podcast, Apple Podcast, Spotify и YouTube.

Подкаст cuMINTE выпускает Центр независимой журналистики при поддержке организации Black Sea Trust, проекта Немецкого фонда Маршалла США. Мнения, выраженные в этом материале, могут не совпадать с взглядами Black Sea Trust или ее партнеров.