Влияние искусственного интеллекта. Некоторые исследования показывают, что чат-боты представляют «серьезную проблему безопасности или хранения данных»

Популярность чат-ботов с искусственным интеллектом (ИИ) растет, но, как показывают некоторые исследования, они также являются серьезной проблемой безопасности или хранения данных. Более того, недавние случаи выявили, что ChatGPT, разработанный компанией OpenAI, сгенерировал ложные сведения об австралийском мэре, а The Daily Beast цитирует исследователей, которые заметили, что Bard, чат-бот Google, выдает неверную и призывающую к ненависти информацию.

Согласно отчету, опубликованному на сайте Technologyreview.com, языковые модели ИИ на сегодняшний день являются «самой яркой захватывающей инновацией в технологиях». Однако они могут создать серьезную проблему: ими чрезвычайно легко злоупотребить и использовать в качестве мощных инструментов фишинга или скамминга. Никаких навыков программирования не требуется. «Что еще хуже, так это отсутствие известного решения», – говорится в отчете.

Технологические компании спешат внедрить эти модели во множество продуктов, чтобы помочь людям делать все, от бронирования поездок до организации своих календарей и создания заметок о встречах. Но то, как эти продукты работают – получают инструкции от пользователей, затем осуществляют поиск ответов в Интернете – создает много новых рисков. Чат-боты с ИИ можно использовать для всех видов злонамеренных действий, включая раскрытие личной информации людей и помощь преступникам в фишинге, рассылке спама и скама. Эксперты предупреждают, что мы движемся к «катастрофе» с точки зрения безопасности и конфиденциальности, сообщает Technologyreview.com.

В отчете выделены три самые большие проблемы и способы их решения.

Уязвимость системы безопасности. Хотя чат-боты с ИИ спроектированы так, чтобы предоставлять ответы с максимально возможной точностью, они также могут быть уязвимы для кибератак. Некоторые злоумышленники могут использовать уязвимость безопасности чат-ботов, чтобы взять их под контроль и начать распространять вредоносные сообщения или собирать конфиденциальную информацию от пользователей.

Чтобы предотвратить это, компании, разрабатывающие чат-боты с искусственным интеллектом, должны учитывать безопасность еще на этапе проектирования и внедрять соответствующие меры безопасности.

Неверная или конфиденциальная информация. Еще одна проблема заключается в том, что чат-боты могут предоставлять пользователям неверную или даже конфиденциальную информацию из-за того, что они не запрограммированы должным образом или что их алгоритмам машинного обучения не хватило данных для полного понимания темы разговора.

Чтобы решить эту проблему, компаниям следует повысить точность и качество данных, на которые опираются их чат-боты. Также важно, чтобы пользователи были проинформированы об ограничениях чат-ботов и поощрялись к принятию важных решений после консультаций и сверок с другими источниками.

Нарушение неприкосновенности частной жизни и конфиденциальности. Помимо вышеизложенного, чат-боты с ИИ могут представлять серьезную угрозу неприкосновенности частной жизни и конфиденциальности пользователей. Это может быть связано с неправильным сбором и хранением пользовательских данных, а также возможностью доступа к чат-ботам посторонних лиц.

Чтобы решить эту проблему, компании должны принять меры для защиты пользовательских данных и внедрить четкие и прозрачные политики в отношении сбора и хранения данных. Также важно, чтобы пользователи были осведомлены о рисках, которым они подвергаются.

ЛОЖНАЯ ИНФОРМАЦИЯ, СОЗДАННАЯ ЧАТ-БОТАМИ

В этой связи напомним дело мэра Австралии, заявившего в начале этого месяца о намерении подать в суд на компанию OpenAI, создавшую ChatGPT, если чат-бот не исправит сгенерированную о нем ложную информацию, в которой утверждается, что мэр причастен к скандалу о взяточничестве. Об этом случае сообщило агентство Reuters.

Мэр округа Хепберн Брайан Худ выразил обеспокоенность своей репутацией, когда люди сообщили ему, что ChatGPT ложно вовлек его в скандал о взяточничестве. Юристы заявили, что 21 марта они отправили письмо с уведомлением OpenAI, владельцу ChatGPT, дав американской компании 28 дней на исправление ошибок, связанных с их клиентом. В противном случае OpenAI рискует столкнуться с возможным судебным иском о диффамации.

Компания OpenAI не ответила на электронное письмо Reuters по этому поводу, отправленное в нерабочее время.

ОШИБОЧНАЯ ИНФОРМАЦИЯ И ПРИЗЫВЫ К НЕНАВИСТИ

В то же время издание The Daily Beast цитирует исследователей, которые заметили, что Bard, чат-бот компании Google, генерирует дезинформацию и призывы к ненависти.

В недавнем исследовании ученых из Университета Беркли Bard был протестирован на нескольких тысячах утверждений на самые разные темы, от политики и экономики до культуры и науки. В значительной доле чат-бот предоставил неточную или ложную информацию, а в некоторых случаях пропагандировал ненависть и предрассудки. Исследователи обнаружили, например, что, когда Bard спросили о Холокосте, предоставленные данные отрицали его существование или преуменьшали его историческое значение и важность.

Что касается темы изменения климата, Bard сгенерировал неточную и противоречивую информацию, усилив скептицизм по этому поводу. Кроме того, чат-бот делал утверждения, которые способствовали распространению предубеждений, например, о том, что женщины менее способны, чем мужчины, или что некоторые этнические группы более склонны к преступлениям.

Хотя Bard находится на ранней стадии разработки и еще не доступен для пользователей, исследователи указывают на риски, которые может принести искусственный интеллект, особенно с точки зрения распространения дезинформации и предубеждений.

Компания Google напрямую не комментировала результаты исследования, но заявила, что работает над улучшением чат-бота и других технологий ИИ, которые она разрабатывает, сообщает The Daily Beast.