Как беседы с ChatGPT случайно стали доступны в Google и почему это опасно

OpenAI отключила функцию, которая позволяла публиковать разговоры с ChatGPT в поисковых системах. Что скрывается за этим решением и почему наши личные диалоги с ИИ оказались на виду у всего интернета?

Михаил Волов

Из выдачи Google исчезли беседы с ChatGPT. Те самые, что еще недавно можно было отыскать по адресу chatgpt.com/share, введя в строку поиска простую формулу. А за ней — чужие мысли, страхи, неловкие просьбы, житейские вопросы и бессмысленные провокации. Все это стало случайной энциклопедией цифровой откровенности. Исчезновение оказалось не случайностью, а следствием решения самой OpenAI.

Компания подтвердила: да, они отключили функцию, позволявшую публиковать такие беседы, делая их доступными для поисковых систем. Это был эксперимент, чтобы наглядно показать — технология опережает нашу способность с ней обращаться.

OpenAI хотела упростить обмен полезными чатами: поделился, отправил другу, показал коллеге. Но пользователи делились тем, что считали личным, не понимая, что одна кнопка превращает их разговор в публичный документ. Подобные недоразумения не новы, но в данном случае ошибка была особенно чувствительной. Чат с ИИ — это не статья и не фото в соцсетях. Это современный эквивалент разговора с самим собой или с кем-то, кого воспринимаешь как понимающего тебя собеседника.

Эти диалоги порой скучны до зевоты: «как поменять смеситель», «что такое теория струн», «напиши рецепт». Но порой кто-то просит помочь написать резюме, и по деталям можно найти его профиль на соответствующих платформах. Кто-то размышляет о разводе. Кто-то жалуется на тревожность. А кто-то по-детски глупо или не без злого умысла спрашивает, можно ли нагревать металлическую вилку в микроволновке. Ответ ChatGPT был остроумным: нет, нельзя, и вот почему, затем — шутка, мол, не призовите Сатану.

Эксперимент OpenAI с публичными чатами ChatGPT завершен

Эксперимент OpenAI с публичными чатами ChatGPT завершен. Фото: Скриншот

Появляется и другая проблема, которая так или иначе связана с такими разговорами. Все чаще пользователи нейросетей жалуются: ИИ лжет и выдумывает факты. Более того, делает это настолько уверенно и продуманно, что отличить правду от вымысла порой почти невозможно.

У специалистов уже появился термин — «ИИ-галлюцинации». Это когда на запрос нейросеть выдает текст, выглядящий правдоподобно, но содержащий фейковую информацию. Феномен прост по сути: в нейронке нет встроенного понимания «правды». Система лишь комбинирует вероятные ответы на основе того, чему ее научили. Если в исходных данных были ошибки или пробелы, начинается «галлюцинация».

Специалисты отмечают: самая частая причина таких ситуаций — плохо поставленный вопрос. Чем точнее и проще запрос, тем меньше шанс, что модель уйдет в астрал. Но даже при идеальном вопросе никто не отменял финальной проверки человеком. К тому же постоянная работа программистов и ученых направлена на снижение риска таких ошибок. В России, например, специалисты ВТБ и «Яндекса» применяют каскадные решения — несколько моделей обрабатывают и корректируют друг друга, словно взаимные проверяющие. Для обучения используются очищенные и проверенные тексты, в которых можно быть уверенным.

Данные Google Drive, Dropbox, Slack — все это может всплыть в поиске, если ссылка где-то появилась

Данные Google Drive, Dropbox, Slack — все это может всплыть в поиске, если ссылка где-то появилась. Фото: 1MI

Была ли вина OpenAI в том, что разговоры оказались в открытом доступе? Формально — нет. Чтобы опубликовать беседу, нужно нажать несколько кнопок, включая разрешение индексации. Компания утверждает, что пользователь сам решает, что делать с контентом. Но, когда интерфейс позволяет опубликовать личный разговор двумя щелчками мыши, предупреждения становятся лишь фоном. Как «курение убивает» на пачке сигарет — вроде написано, но мало кто обращает внимание.

Интернет давно знает случаи, когда «публичный» и «доступный по ссылке» воспринимаются как синонимы. Google Drive, Dropbox, Slack — все это может всплыть в поиске, если ссылка где-то появилась. Но ChatGPT — случай особый. Это как будто живой диалог, часто интимный, а потому утечка чувствительнее.

Старшее поколение помнит: дневники прятали под подушку. Теперь дневник — это чат с нейросетью. Прежде чем нажать «Поделиться», стоит спросить себя: вы бы показали это кому-нибудь из близких? Если нет — может, и не стоит.

Подпишитесь

Данные о правообладателе фото и видеоматериалов взяты с сайта «Новые известия», подробнее в Правилах сервиса
Анализ
×
Волов Михаил
OpenAI
Сфера деятельности:Связь и ИТ
256
Google
Сфера деятельности:Образование и наука
197
ООО "ЯНДЕКС"
Сфера деятельности:Связь и ИТ
401
ПАО "БАНК ВТБ"
Сфера деятельности:Финансы
347