Искусственный интеллект и медиаэтика: преимущества, риски дезинформации и как найти золотую середину

ChatGPT, Jasper Chat, Lensa, ChatSonic, Remini, YouChat — это лишь несколько платформ искусственного интеллекта, запущенных за последний год. По официальным данным, только у ChatGPT более 100 миллионов пользователей, а в июне 2023 года сайт зарегистрировал более 1,6 миллиарда посетителей. Чат-бот стал настоящей сенсацией, но также и вызовом сразу для нескольких отраслей, включая СМИ. Несмотря на то, что некоторые издания успешно используют ИИ для получения данных, быстрого распространения информации и автоматического создания медиаконтента, ежедневное использование этой технологии вызывает ряд вопросов.

О преимуществах и недостатках этих алгоритмов для СМИ мы поговорим сегодня, в первом выпуске нового сезона подкаста cuMINTE. Беседовать мы будем с нашими гостями – директором Высшей школы журналистики Молдовы Майей Метакса и главным редактором портала Agora.md Феличией Недзельски.

Ана Сырбу: С момента своего появления ChatGPT быстро завоевал популярность, в том числе в Молдове. Феличия, мне бы хотелось обсудить, как отреагировали на это редакции СМИ, и узнать, как было конкретно в вашем случае. Вы обсуждали это в команде? Вы разработали определенную стратегию?

Феличия Недзельски: Когда появились первые новости о ChatGPT, коллеги начали его тестировать. Они давали ему простые задания, а потом смеялись над ответами, размещая их в общем чате редакции. Потом мы увидели, что дело становится все серьезнее. Мы поняли, что на горизонте появилась технология и нам нужно занять позицию по отношению к ней, и мы все ее протестировали. После этого наш коллега Алекс Гурдилэ, продюсер AGORA, провел тренинг, на котором он рассказал нам несколько советов и рекомендаций относительно того, как использовать этот чат и для чего он нужен. Но я бы не сказала, что у нас есть конкретная или какая-то серьезная стратегия в отношении ChatGPT. Все-таки это еще не часть нашей редакционной стратегии. Мы используем его время от времени, но пока не как инструмент, который мы могли бы включить в нашу стратегию.

Ты сказала, что вы иногда им пользуетесь. Когда именно или где? Это обработка статистических данных или, может, более сложного отчета?

Феличия Недзельски: Да, ведь ChatGPT генерирует тексты из уже существующих текстов. Важно это понимать. Это инструмент, который помогает вам собрать воедино информацию, которая уже была где-то в сети, но он не генерирует тексты с нуля. Это полезно знать, потому что контент, который он создает, не является оригинальным. Он помогает вам делать тексты, например, для новостей, которые собираются как «консервы». Но эти заготовки — это, как правило, какие-то типовые новости, вроде новостей о погоде, о курсе валют, спортивных новостях. Например, вы не очень разбираетесь в спорте и просите ChatGPT дать вам новость о таком-то матче такого-то чемпионата. Соответственно, вся эта информация уже есть в сети, он лишь синтезирует ее в новостной сюжет, не требующий колоссальных усилий.

Майя, а как отреагировала команда Высшей школы журналистики? Вы уже используете эти платформы ИИ в своем рабочем процессе?

Майя Метакса: Мы начали интегрировать их в нашу офисную работу. Не всегда, конечно, но иногда мы их используем. Например, мы используем ChatGPT для создания маркетинговых и рекламных текстов.

Сейчас у нас идет приемная кампания, и когда у нас заканчиваются идеи, мы можем задать этой платформе рамки, какие-то задачи, и она генерирует тексты, которые не всегда можно использовать, они не всегда очень хорошие. Но многое зависит от того, какие рамки вы зададите чат-боту, что попросите его сделать. Соответственно, в зависимости от заданных параметров он генерирует текст, более или менее подходящий для того, что вам нужно. Я могу бы рассказать, как я впервые его использовала. Сейчас у нас в школе нет политики использования ChatGPT или искусственного интеллекта, но в какой-то момент нам придется подумать и об этом. Как только его запустили и волна дошла и до Молдовы, я несколько раз пыталась войти в него, но система была перегружена и была недоступна. Несколько месяцев назад я работала над текстом для проекта на английском языке и написала страницу довольно подробного объяснения, в чем состоит задание, разработала тему мероприятия и отправила текст адресату. Буквально через несколько минут я получаю ответ, в котором говорится: «Да, спасибо за все усилия, которые вы приложили, чтобы рассказать нам так подробно обо всей деятельности, но, пожалуйста, расскажите нам об этом кратко, в одном абзаце максимум на шесть строчек». Я уже работала часа три-четыре и думаю: «Боже, у меня уже нет сил сосредоточиться, чтобы переписать этот текст». Вы наверняка знаете, что значит работать над текстом. И тогда я подумала о ChatGPT, что пришло время его протестировать. И я дала ему именно ту задачу, которая у меня возникла. Через несколько секунд ChatGPT выдал мне абзац из шести строк, и я зависла. Я просто не могла в это поверить. Разумеется, мне пришлось немного подредактировать текст, расставить акценты, сформулировать так, как мне нужно, но это сэкономило мне часа три времени, в течение которых мне пришлось бы думать, уже вырубаясь без сил. И тут я подумала, какого хорошего коллегу я нашла (а, может, и колежанку). В понедельник я была такая на энтузиазме, пришла в офис и рассказала коллегам эту историю и мне сказали, что да, иногда этим можно пользоваться. Я использовала ChatGPT для написания всевозможных объявлений о вакансиях. Я точно также дала ему основу, и сказала, что мне нужно такое-то объявление, чтобы тон был таким-то, чтобы обратиться к такой-то целевой группе. Когда я прочитала результат, то сказала: «Я не могу в это поверить, это почти то же самое, что написала бы я сама». Нас шокирует, скорее, быстрота, с которой ИИ выдает нам какую-то информацию, нежели тот факт, что мы разговариваем с машиной и она отвечает нам как человек.

Эти алгоритмы могут анализировать большие объемы данных и генерировать новости за считанные секунды. Это позволяет ускорить распространение информации и экономит время журналиста. И все же, как вы считаете, стоит ли журналистам использовать ИИ в процессе создания материалов?

Майя Метакса: Думаю, что если эта технология сможет предоставить достоверную фактическую информацию, то да, журналисты могут использовать эти, как я их называю, цифровые существа. Если им злоупотреблять в темах, требующих тонкого и детального понимания, культурного понимания, то это может подорвать доверие не только к самому инструменту ИИ, но и к СМИ. Мы должны быть очень осторожны в том, когда его используем и в каком контексте. Как ты сказала ранее, искусственный интеллект призван облегчить нашу работу, и этот инструмент должен, в первую очередь, служить журналистам, но не выполнять за них работу.

Феличия Недзельски: Соглашусь с Майей. Этот инструмент однозначно стоит использовать в нашей работе, чтобы облегчить наш труд.

Важно же понимать, что журналистика очень разносторонняя и сложная вещь и она не ограничивается только написанием новостей. Когда мы говорим о журналистике, мы говорим о сборе данных, их анализе, поездках, сторителлинге, расследованиях, съемках фильмов, подкастах — чем мы занимаемся сейчас. Журналистика и журналисты очень многогранны и не ограничиваются написанием текстов. Соответственно, то, что делает ChatGPT, это помощь, которая строго сводится к каким-то текстам, очень небольшому проценту журналистской работы, которая может нам помочь. И в этом смысле, разумеется, речь не может идти о замене нас как профессиональной гильдии, поскольку она подразумевает, как я уже отметила, целый комплекс разной деятельности. Творчество, искусство являются неотъемлемой частью журналистики и в этом плане ИИ не в состоянии заменить нас даже в анализе данных и их отборе. Ведь то, что делают журналисты помимо сбора информации, — это еще и своего рода фильтрация. То, что нам предлагает ChatGPT, в любом случае нуждается в том, чтобы мы пропустили это через себя. Если более конкретно, то в редакции мы используем его для создания краткого изложения очень больших текстов, таких как проекты законов на сотни страниц, которые рассматривают в Парламенте или Правительстве и которые невозможно прочитать полностью и при этом внимательно. Даже если вы можете прочитать их полностью, это инструмент, который поможет вам суммировать всю информацию в нескольких тезисах: «Эй, Chat GPT, резюмируй для меня на одной странице то, что там написано на 200 страницах».

Майя Метакса: В этом контексте хочу сказать, что Bloomberg часто использует искусственный интеллект, особенно при анализе данных. Его также можно использовать для выявления закономерностей и определенных тенденций и для создания проекта статьи, то есть, чтобы начать уже со скелета, а не писать с нуля. А журналист уже использует свой опыт, помещает его в контекст, добавляет перспективу и проявляет творческий подход, который необходим для создания увлекательного, актуального и хорошо документированного повествования.

Одна из самых больших проблем, с которыми сталкиваются журналисты, использующие ИИ в своей работе, заключается в том, чтобы понять, насколько точны данные, которые генерирует ИИ. Как вы думаете, в чем заключается самая большая опасность ИИ в целом? И чего вы опасаетесь при использовании алгоритмов ИИ?

Майя Метакса: Конечно, страх заключается в том, что ИИ может укоренить пропаганду, дезинформацию, фейковые новости, дипфейк, предвзятую информацию. Как мы уже говорили, ChatGPT имеет доступ к миллиардам данных со всего интернета, у него нет эмоций, он не знает, что такое хорошо, а что такое плохо. Мне понравилось руководство, написанное командой BBC, где они рассказывают о том, что такое ИИ, приводят примеры, упоминают типы ИИ и рассказывают о ChatGPT как о попугае. Если вы перестанете думать и анализировать, он будет вести себя как попугай. Журналисты, безусловно, должны участвовать в процессе мониторинга, в проверке контента. Мы можем и должны проверять достоверность информации, выявлять эти тонкие нюансы, не допускать распространения фейковых новостей и дезинформации. Мы обязаны обеспечить беспристрастность информации.

Феличия Недзельски: Для меня ChatGPT пока не является источником, который я могу цитировать. Объясню, почему. Я не знаю, откуда он берет информацию, которую выдает. Цитируя то, что предлагает мне ChatGPT, я рискую попасть в нехорошую ситуацию, когда предоставляемая мной информация может оказаться неверифицируемой или вообще не заслуживающей доверия. Шагом в повышении доверия к ChatGPT для меня или для редакции могло бы стать наличие сносок для всей информации, которую он генерирует. Каждый абзац или фраза должна содержать упоминание, откуда она была взята. Это может быть прямая ссылка или сноски в виде библиографического списка. Это помогло бы мне проанализировать контент, который он мне предлагает, оценить его человеческими глазами, то есть, естественным, а не искусственным интеллектом, и, в конечном итоге, решить, можно ли использовать эту информацию или нет.

Нужны ли в этом смысле тренинги для журналистов или, может, нужно руководство для СМИ?

Майя Метакса: И то, и другое. Мы живем во времена, когда благодаря новым технологиям все очень быстро меняется. Меняется наш мир, меняется и  профессия журналиста. И чтобы идти в ногу со временем, если вы не хотите отставать, вы тоже должны меняться, адаптироваться и быть гибкими. А для этого вам нужно понимать мир, в котором вы живете, понимать эти инструменты, которые, нравится нам это или нет, приходят в нашу жизнь. Они уже здесь и останутся с нами надолго. Соответственно, существует необходимость в тренингах, сами журналисты должны осознавать, что им необходимо постоянное обучение, чтобы быть в курсе всего нового и новых инструментов. Ну и руководство для СМИ тоже следует разработать.

Феличия Недзельски: Девочки, у меня к вам вопрос: а кто будет составлять это руководство? Кто сможет разработать такой гид, если эта технология так быстро меняется? Еще год назад о ChatGPT никто толком не знал, а теперь мы обсуждаем его в подкасте. То есть, понятно, что такое руководство нужно, но его придется быстро обновлять. Меня пугает, насколько стремительно развиваются эти технологии. Хорошо иметь это в виду, время от времени проходить эти тренинги, но у меня такое впечатление, что нам не избежать потенциальных рисков или случаев, когда мы не будем знать, что делать только потому, что у нас есть гид. С другой стороны, я вижу феномен — Ана, сколько ты до сих пор видела журналистов, которые активно используют ChatGPT? Потому что я, например, чаще встречала тех, кто сомневается.

Ана Сырбу: Уже довольно долго я занимаюсь анализом фейковых новостей и вижу в ChatGPT скорее ряд опасностей, а не преимуществ. Сайты с фейковым контентом сейчас буквально процветают, потому что авторам для создания фейков даже напрягаться не нужно — ChatGPT облегчает им эту задачу. Дается команда и ИИ создает фейковый контент. Все, что им нужно сделать – это скопипастить и опубликовать эту информацию. И мы, анализирующие фейковый и манипулятивный контент, тратим часы на борьбу с ним.

Майя Метакса: С другой стороны, мы, кто работает в редакциях или те, кто хочет освоить новые технологии и идти в ногу со временем, должны четко определить роли: «Здесь мы используем ИИ для этого, а вот здесь мы будем журналистами». Мы делаем человеческую журналистику, если можно так сказать, а не искусственную. И когда роли будут четко определены, зная, каковы правила, коллеги в редакции будут знать: «Ага, вот в этой ситуации, когда у меня большой объем данных, я могу передать их в ChatGPT или любой другой цифровой инструмент, и тогда он мне поможет, а я смогу освободить время, чтобы заняться чем-то другим, например сторителлингом или другой сложной работой».

Феличия Недзельски: Ана, мне нравится тот контрастный пример, который ты привела, когда сказала, что те, кто создает много фейков и дезинформации, с легкостью используют ChatGPT. Почему я тебя спросила – потому что я знаю многих журналистов, которые не решаются использовать ChatGPT. Они говорят: «Не думаю, что мне это понадобится, поэтому я не участвую в этих тренингах, я просто занимаюсь журналистикой «старой школы». Конечно, респект журналистам, которые продолжают выполнять свое дело, несмотря на трудности и возможности облегчения работы, которые может предложить ChatGPT. Но когда идет гораздо более серьезная битва между информацией и дезинформацией, и на стороне врага есть некоторые инструменты, которые значительно облегчают его работу, тогда да, возвращаемся к твоему предыдущему вопросу. Да, я думаю, нам нужно постоянно узнавать, как меняется ИИ.

Следует ли упоминать в наших статьях, что мы использовали ИИ? Где и при каких обстоятельствах это стоит делать?

Феличия Недзельски: Думаю, что обязательно необходимо упоминать. Расскажу тебе о случае, когда наша редакция использовала изображения, созданные искусственным интеллектом. Речь идет о кампании нашей редакции по продвижению подписки. ИИ создал несколько изображений, на которых лидеры стран на отдыхе что-то читают на своих телефонах. Речь шла о новостях Agora, и лозунг был: «Возьмите нас с собой в отпуск». Ниже мы написали дисклеймер о том, что эти изображения созданы искусственным интеллектом. Мне кажется абсолютно естественным указывать это  и в текстах – можно поставить звездочку там, где есть отрывки информации, сгенерированной подобными инструментами, будь то ChatGPT или другой инструмент. Ведь если возникает конфликтная ситуация, если вас или вашу редакцию в чем-то обвиняют, например, в дезинформации или ошибке в тексте, то вы несете ответственность за опубликованную информацию. В таких случаях не получится свалить вину на ChatGPT. Речь идет об уважении и приверженности журналистской этике, поскольку, упомянув, что такой-то абзац, график или данные были созданы, например, ChatGPT или любой другой платформой/инструментом, вы показываете прозрачной своей работы и таким образом вы повышаете свой авторитет перед читателями. Мы живем во времена, когда нам все и всегда приходится подвергать сомнению.

В Румынии был создан Научно-этический совет по искусственному интеллекту. В состав этого правительственного совета вошли 28 экспертов в области искусственного интеллекта, профессоров и исследователей из крупных университетов и технологических компаний Румынии и зарубежных стран. Они отвечают за создание и внедрение безопасной и этической среды в области искусственного интеллекта, оказание информационной поддержки по вопросам безопасности данных, использование искусственного интеллекта в целях безопасности, соблюдение законодательства и защиту права на неприкосновенность частной жизни, гражданских свобод, а также основных прав человека. Считаете ли вы, что такой совет необходим и в Молдове?

Майя Метакса: Нам нужно как-то изменить свое отношение, не нужно идти против волны, нужно ее ловить. Ок, возможно, в какой-то момент возникнет необходимость в четкой политике и законах, регулирующих эту сферу. Но насколько велика для нас необходимость создания такого совета? Думаю, что перед этим нам следует знать, на каком уровне и в каких масштабах это используется, чтобы мы могли принять либо нормативные, либо политические меры.

Феличия Недзельски: Я согласна с Майей, эта волна в Молдове не такая уж и большая. Идея с советом в Румынии хорошая, но я не знаю, насколько она была бы функциональной в нашей стране. Учитывая, что мы еще не являемся частью Европейского союза и их правил относительно персональных данных – у нас даже онлайн-пространство не регулируется, интернет-СМИ не регулируются – в этих условиях регулировать искусственный интеллект и его использование в Молдове кажется далекой мечтой.

Между тем наметилось первое движение к саморегулированию СМИ. Одна международная комиссия разработает хартию об использовании искусственного интеллекта в СМИ. Об этой инициативе заявила международная неправительственная организация «Репортеры без границ». По их мнению, развитие платформ ИИ ставит под угрозу «целостность информации». Роль комиссии заключается в разработке набора принципов, прав и обязанностей для работников СМИ в отношении использования систем на основе искусственного интеллекта. Можно ли взять эту хартию в качестве ориентира для журналистских коллективов нашей страны? Может ли это стать тем Кодексом, которым будет руководствоваться команда издания Agora и который они будут учитывать?

Феличия Недзельски: Конечно. Почему нет? Я бы ее прочитала и даже внедрила бы ее элементы в редакционную политику. Очень важно время от времени менять редакционную политику, потому что все меняется и все нужно обновлять. Если есть такой документ, особенно специфичный для журналистов, я считаю, что мы должны с ним ознакомиться и сделать какие-то выводы. Однозначно, давайте посмотрим и проанализируем.

Майя Метакса: Председателем этой комиссии является лауреат Нобелевской премии Мария Ресса, а текст или хартия призвана стать справочным документом для журналистов на мировом уровне. Соответственно, я считаю, что если редакции хотят этого, если журналисты заботятся о своей репутации и хотят сохранить доверие – они должны присоединиться к этой хартии.

Кстати, вы как-то скорректировали редакционную политику после появления Chat GPT и других платформ?

Феличия Недзельски: Нет, но в настоящее время мы работаем над этим с некоторыми международными экспертами, так что сейчас подходящее время для внесения изменений.

И все же, как найти баланс между использованием систем искусственного интеллекта и сохранением человеческого фактора при создании журналистских материалов?

Майя Метакса: Думаю, мы сможем найти баланс, сотрудничая с этими платформами/инструментами/цифровыми изобретениями, в том числе, путем четкого распределения ролей. Я уже говорила, что в важно знать, когда стоит обращаться, например, к ChatGPT, или к любой другой платформе, а когда нужно заняться делом и вести себя как настоящие журналисты. Эти инструменты искусственного интеллекта уже являются частью набора журналистских инструментов во всем мире. Многие редакции, такие как Bloomberg, Forbes и The Guardian уже используют их. Поэтому, думаю, нам стоит не бояться, а внимательно их изучать, определять роли и быть гибкими. Это не угрожает нашей работе и нашим рабочим местам, потому что работа журналиста требует чего-то другого, это творчество, любознательность, тот же сторителлинг, расследования и привлечение к ответственности представителей властей.

Феличия Недзельски: Соглашусь с Майей. Для меня дело даже не в соблюдении баланса, потому что дисбаланса между моей работой и влиянием ChatGPT я пока не вижу. Моя повседневная работа включает в себя редактирование текста, написание и, возможно, иногда отчеты, в которых я также прошу ChatGPT адаптировать мой собственный текст, сделать его длиннее или короче, найти мне более подходящие слова. В своей журналистской работе я не чувствую, что этот инструмент меня подавляет, не замечаю какого-то дисбаланса. Скорее, передо мной стоит дилемма: как сохранить баланс между профессиональной и личной жизнью, что касается психического здоровья. Думаю, в этом случае следует говорить о балансе, а ChatGPT пока далек от того, чтобы вывести меня из равновесия. Пока мы придерживаемся некоторых правил и своевременно проводим обучение, вводим эти понятия в нашу редакционную политику и следим за новостями об искусственном интеллекте, я думаю, у нас все в порядке.

Тем не менее, на международном уровне этот дисбаланс уже начал проявляться. Технология Deep Fake постоянно создает фейковые видео, фотографии. Как нам поступать с такого рода контентом и как не попасться в ловушку этих фейков?

Майя Метакса: Я отвечу кратко: прежде всего благодаря профессиональному подходу, уважению стандартов журналистики, применению строгости к работе, все подвергая сомнению и все проверяя.

Феличия Недзельски: Double check, triple check – наша ежедневная работа, которая заключается в проверке и перепроверке. Ну и, наконец, нужно прислушиваться к своей интуиции.

И что же нам делать? Обращаться к IT-специалисту, чтобы он объяснил, какое фото или видео фейковое?

Феличия Недзельски: Абсолютно. Но это не обязательно должен быть дежурный айтишник, который будет тебе помогать кого-то разоблачать. В нашей профессии мы используем инструменты, которые помогают нам проверить происхождение изображения или видео. Сейчас я все тебе не назову, но из того, что помню – это простой поиск по фотографиям, который помогает находить первоисточник, откуда взята эта фотография. Можно загрузить фотографию через поиск Google, и ты увидишь ее происхождение. Что касается видео, можно использовать тот же Invid, который помогает увидеть, кто первым сгенерировал последовательность и стоит ли за этим ИИ. Существуют также платформы, которые помогают вам пропустить через свои фильтры некоторые изображения или видео и определить, настоящие они или созданы искусственным интеллектом. Я думаю, пришло время составлять не только списки платформ ИИ, но и списки платформ, которые помогут нам определить, что такое ИИ и как отличить фейк от реальности. Сейчас самое время.

Майя Метакса: А кто не знает, где взять эти списки, я приглашаю их прийти в Высшую школу журналистики, записаться на наши программы и мероприятия. Сейчас как раз идет приемная кампания.

***

Дорогие слушатели нашего подкаста, спасибо за вашу лояльность. Вы с нами уже третий год. Если у вас есть вопросы или идеи, которые вы хотите, чтобы мы обсудили в Подкасте cuMINTE, отправьте их на адрес электронной почты Центра независимой журналистики — redactia@ijc.md. Фильтруйте с умом любую информацию, которую вы слышите, видите или читаете! Слушайте наши выпуски на сайте Mediacritica.md, в Google Podcasts, Soundcloud и Youtube.

—————————————————–

Подкаст cuMINTE реализован Центром независимой журналистики при поддержке Института освещения войны и мира (IWPR). Мнения, выраженные в этом материале, не обязательно отражают точку зрения IWPR или его партнеров.