В интервью для платформы Euvsdisinfo.eu доктор Бенджамин Ланге, специалист по этике, специализирующийся на искусственном интеллекте (ИИ), утверждает, что нам необходимо научиться распознавать контент, созданный с помощью ИИ, и проверять его, поскольку он может содержать ошибки.
«Мы могли бы (…) значительно активизировать наши усилия по просвещению широкой общественности об ИИ и его связи с нашими привычками потребления и создания информации, начиная со школ. Развитие устойчивости и критического мышления в больших масштабах, чтобы иметь возможность ориентироваться в нашей информационной среде в эпоху ИИ, кажется мне гораздо более плодотворным, чем полагаться исключительно на реактивные меры», — считает исследователь и консультант по этике доктор Ланге.
В то же время эксперт предполагает, что для использования технологий ИИ необходимы подходящие удобные инструменты.
«Что касается угроз, которые, в частности, ИИ представляет для нашей информационной среды, мы должны убедиться, что у нас есть надлежащее руководство по использованию этих технологий как посредством саморегулирования, так и посредством строгих законов. Это может включать в себя требование добавления технических рекомендаций, таких как цифровые водяные знаки, к программным интерфейсам приложений (API), используемым в программном обеспечении, управляемом ИИ, для снижения риска злоупотреблений и манипулирования информацией», — заявил Ланге.
Что касается взаимодействия между искусственным интеллектом и манипулированием информацией, доктор Ланге предлагает обсудить влияние генеративного ИИ. Он отмечает, что, несмотря на успехи в обнаружении дезинформации, генеративные технологии искусственного интеллекта, такие как генераторы текста или изображений, «принесли с собой новые проблемы». Эти технологии могут усилить распространение дезинформации в текстовой или графической форме.
«Я бы посоветовал всем обратить внимание на то, чтобы лучше понять, как работают такие модели, например, как они генерируют текст или изображения, и как мы можем научиться лучше идентифицировать результаты генеративного ИИ. В этом нам помогают подсказки, такие как синтаксические модели текста (то есть приемлемый порядок слов в предложениях, правильная структура предложений) или определенные элементы изображений, которые искусственный интеллект еще не может достаточно хорошо создать (например, руки, логические пропорции, относительные пропорции между отдельными элементами, детализированные фоны). Это также означает, что проверенные методы проверки фактов, такие как проверка источников, становятся еще более важными», — отметил источник.
С долей оптимизма доктор Ланге отмечает тот факт, что у нас есть средства для борьбы с дезинформацией с помощью ИИ. Например, технологии обнаружения могут идентифицировать поддельные учетные записи или контент, который был слегка изменен для распространения дезинформации. Однако он подчеркивает необходимость согласованных усилий по просвещению общественности относительно ИИ и влиянии новых технологий на информационную среду.