#РАЗЪЯСНЯЕМ. Какие существуют типы «чатов» и почему важно их знать

В течение уже некоторого времени термин ChatGPT используется практически как синоним искусственного интеллекта (ИИ). Но ChatGPT – лишь одна из многих существующих языковых моделей генеративного типа. На самом деле, сегодня распространено целое семейство языковых систем, созданных разными компаниями или сообществами, причем одни из них безопасные и регулируемые, а другие экспериментальные или даже потенциально опасные при неразумном использовании.

«Чат» на основе искусственного интеллекта по сути является чат-ботом, то есть программой, которая может общаться с людьми на естественном языке. Он использует алгоритмы языковой обработки и огромные базы данных, чтобы понять вопросы и сформулировать ответы.

Одна их самых известных моделей – ChatGPT, разработанная американской компанией OpenAI. В начале августа OpenAI выпустила версию GPT-5, которая, по утверждению компании, является «самой умной, быстрой и полезной моделью на сегодняшний день», с улучшенными характеристиками по части кодирования, математики, письма, здоровья, визуального восприятия.

Другие модели чата на основе искусственного интеллекта – Gemini от компании Google, интегрированный в экосистему Google, способный предоставлять актуальную информацию с помощью поиска в интернете, Copilot от компании Microsoft, специализирующийся на поддержке документов, кодах и профессиональных задачах, Claude от компании Anthropic, с акцентом на безопасность ИИ и на согласование моделей с человеческими ценностями. А у компании Meta есть Meta AI – инструмент, интегрированный в Facebook, WhatsApp и Instagram, нацеленный на повседневное общение.

Другими бесплатными и коммерческими моделями с разными уровнями контроля и точности являются LLaMA, Mistral, Perplexity AI и HuggingChat

Важно знать, что существует несколько типов чатов, потому что не все они работают одинаково и не все безопасны. Некоторые из них созданы крупными компаниями с четкой политикой по части этики и конфиденциальности. Другие представляют собой «пиратские» или модифицированные бесплатные модели, которые могут генерировать манипулятивный контент или даже фейки. 

Например, некоторые модели могут быть обучены отвечать без фильтров, предоставляя непроверенную или ложную информацию, другие могут намеренно использоваться для автоматического создания фейковых новостей, эмоциональных текстов или кампаний по манипулированию в интернете. Также следует знать, что данные, введенные в такие чаты, могут сохраняться или повторно использоваться без согласия пользователя.

Давайте не забывать, что искусственный интеллект может быть отличным инструментом для документирования, перевода или редактирования, но при неправильном использовании он становится средством усиления дезинформации. Имеется в виду, в частности, быстрое создание фейкового контента, то есть автоматически сгенерированных текстов, изображений, видео, которые трудно проверить.

Пользователям всегда следует проверять название платформы и компанию, которая ею управляет. Избегайте неизвестных версий или сайтов, которые обещают «бесплатный безлимитный ChatGPT». Кроме того, не следует воспринимать все как хорошее – иногда даже модели, зарекомендовавшие себя на рынке, могут ошибаться. Вот почему проверка информации в нескольких источниках имеет первостепенное значение.

Здесь вы можете найти более подробную информацию о том, как безопасно использовать ChatGPT, от Дениса Закона, специалиста по искусственному интеллекту. Он также говорил об инструментах на основе искусственного интеллекта в подкасте cuMINTE