Алгоритмы социальных сетей приучают пользователей к мысли, что они будут вознаграждены реакцией, если поделятся контентом, который вероятнее всего понравится другим пользователям. Это может быть основной причиной распространения фейкового контента в социальных сетях, а вовсе не отсутствие критического мышления, как отмечает Phys.org со ссылкой на исследование, опубликованное Университетом Южной Калифорнии в США.
Выводы исследователей из Университета Южной Калифорнии, обнародованные в середине января 2023 года, «опровергают прежние представления о том, что дезинформация распространяется из-за того, что пользователям не хватает навыков критического мышления, чтобы отличить правду от лжи, или из-за того, что их твердые политические убеждения искажают их суждения», уточняет источник.
«Благодаря системам обучения в социальных сетях, основанным на вознаграждении, у пользователей формируется привычка делиться информацией, которая получает признание у других. Как только привычки сформированы, обмен информацией автоматически активируется сигналами на платформе, при этом пользователи не учитывают критические результаты реакции, такие как распространение дезинформации», – пишут исследователи.
Таким образом, публикация, обмен информацией и взаимодействие с другими в социальных сетях может стать привычкой.
«Результаты нашего исследования показывают, что дезинформация не распространяется из-за дефицита пользователей. На самом деле это функция самой структуры сайтов социальных сетей», – сказала Венди Вуд, эксперт по привычкам и почетный профессор психологии и бизнеса из Университета Южной Калифорнии.
«Привычки пользователей социальных сетей являются более важным фактором распространения дезинформации, чем индивидуальные особенности. Из предыдущих исследований мы знаем, что некоторые люди не воспринимают информацию критически, а другие формируют мнение, основанное на политических предубеждениях, что также влияет на их способность распознавать ложную информацию в Интернете», – пояснила Гизем Джейлан, научный сотрудник Йельской школы менеджмента. «Однако мы показываем, что структура вознаграждения платформ социальных сетей играет большую роль, когда речь идет о распространении дезинформации», – отметил источник.
Исследователи пришли к выводу, что платформы социальных сетей могут предпринять более важные шаги, чем модерация размещенного контента, внеся изменения в свою структуру вознаграждения, чтобы ограничить распространение дезинформации. Кроме того, авторы исследования пришли к выводу, что для эффективного сокращения количества дезинформации потребуется реструктуризация онлайн-среды, которая поощряет и поддерживает ее распространение.
В марте прошлого года Facebook объявил, что разрабатывает новые инструменты для борьбы с дезинформацией. Платформа уверяла, что будет использовать искусственный интеллект для блокировки постов, содержащих ложную информацию. Администраторы групп в Facebook могут, например, разрешить программному обеспечению автоматически отклонять сообщения, если они содержат информацию, которую специалисты по проверке фактов оценивают как ложную. Специалисты по проверке фактов – это люди. Meta, материнская компания Facebook, уже платит 80 СМИ по всему миру за проверку контента на своей платформе.