Сознание
17 апреля, 2025

5 вещей, которые не стоит рассказывать ChatGPT

Что делать, чтобы ваша загадочная сыпь и данные банковской карты не стали достоянием общественности

5 вещей, которые не стоит рассказывать ChatGPT

Изображение создано в ChatGPT

За последние несколько лет мы многое узнали о чат-ботах, а они – о нас. ИИ собирает факты из наших разговоров и хранит их в своей памяти — более того, он «подтягивает» уже имеющуюся информацию о собеседнике, чтобы поддерживать более осмысленный диалог. 

«ChatGPT помнил, что я люблю есть яйца, что у меня есть ребенок, которого я кормлю по ночам, что у меня болит спина, и мне приходится менять из-за этого программу тренировок… и еще некоторые вещи, которые я не буду здесь здесь перечислять», — пишет журналистка The Wall Street Journal Николь Нгуен. Мы перевели и адаптировали ее текст.

Почему мы доверяем ИИ

Чем больше вы делитесь информацией с любым чат-ботом, тем более полезным он может быть. Поэтому люди охотно доверяют ему свои анализы крови, а инженеры присылают фрагменты еще неопубликованного кода. Казалось бы, что здесь такого — так делают вообще все. Но среди исследователей ИИ есть мнение, что нам следует быть более разборчивыми в том, что мы доверяем этим человекоподобным сервисам. Некоторой информацией делиться особенно рискованно.

Компании, занимающиеся разработкой искусственного интеллекта, жаждут данных для улучшения своих моделей, но даже им не нужны наши секреты. «Пожалуйста, не сообщайте в разговорах никакой конфиденциальной информации», — призывает OpenAI. А Google предупреждает пользователей Gemini: «Не вводите конфиденциальную информацию или любые данные, которые вы бы не хотели, чтобы видел кто-то еще».

Дело в том, что невинные рассказы о вашей странной сыпи или тратах за прошлый месяц могут быть использованы для обучения ИИ (это еще полбеды) или всплыть при утечке данных. Но, конечно, параноить тоже не стоит. Вот что именно не следует включать в свои диалоги с ИИ.

Чего лучше не говорить чат-ботам

Чат-боты могут звучать до жути по-человечески, что заставляет нас быть удивительно откровенными  в разговоре с ними. «Когда вы вбиваете что-то в диалог с чат-ботом, вы больше не контролируете эту информацию», — предупреждает Дженнифер Кинг, научный сотрудник Стэнфордского института исследований ИИ.

То, что вы написали боту, не всегда останется «только между вами». Так, в марте 2023 года баг в ChatGPT позволил некоторым пользователям видеть, что другие люди набирали в своих чатах. OpenAI также отправляла письма с подтверждением подписки не тем людям, раскрывая имена и фамилии, адреса электронной почты и платежные данные пользователей. Наконец, история ваших чатов также может попасть во взломанный архив данных или стать частью того, что будет передано правоохраниелям, если к компании-разработчику ИИ предъяят соответствующее требование.

Хорошая идея — защитить свою учетную запись с помощью надежного пароля и многофакторной аутентификации. И просто не делиться с ботом следующей информацией.

1. Личные данные 

Сюда входят номера паспорта, водительских прав, а также даже дата рождения, адрес и номер телефона. Некоторые чат-боты стараются как бы «замазать» такую информацию в диалогах, чтобы свести к минимуму риск разглашения при возможной утечке. «Мы хотим, чтобы наши модели ИИ узнавали о мире, а не о частных лицах, поэтому мы активно минимизируем сбор личной информации», — заявляют в OpenAI.

2. Медицинские данные 

Конфиденциальность крайне важна в сфере здравоохранения, но чат-боты не обязаны ее соблюдать. Так что если у вас возникнет соблазн попросить ИИ интерпретировать результаты анализов, обрежьте изображение или отредактируйте документ перед загрузкой так, чтобы ваши личные данные не были видны.

3. Финансовые данные

Не разглашайте номера своих банковских и инвестиционных счетов, номера и пин-коды карт — все это при утечке может быть использовано доступа к вашим средствам.

4. Конфиденциальная рабочая информация 

Если вы используете основные версии популярных чат-ботов в рабочих целях, есть риск случайно раскрыть данные клиентов или коммерческие тайны — даже если вы всего лишь попросили ИИ составить деловое письмо. Поэтому, например, компания Samsung запретила своим сотрудникам использовать для работы ChatGPT после того, как один из инженеров случайно слил внутренний исходный код одного из сервисов. 

Если все же без ИИ в вашей работе никак, обсудите с начальством подписку на корпоративную версию чат-бота или вариант создать собственный искусственный интеллект (на базе того же  ChatGPT) с защитой, учитывающей специфику компании.

5. Логины и пароли

С появлением агентов-помощников на основе искусственного интеллекта, способных выполнять задачи ассистентов, появляется все больше поводов передавать учетные данные разных аккаунтов чат-боту. Но стоит помнить, что эти сервисы не создавались как безопасные цифровые хранилища, поэтому сохраните свои пароли и PIN-коды в специальных менеджерах паролей, а с ИИ этой информацией делиться не стоит.

Как замести следы

Claude по умолчанию не использует ваши чаты для обучения и удаляет все полученные от пользователей данные через два года. ChatGPT, Copilot от Microsoft и Gemini от Google используют разговоры с вами для обучения, но предлагают отказаться от этого в настройках.

Тем не менее, когда вы оставляете отзыв о реакции бота — как правило, в виде пальца вверх или пальца вниз, — есть вероятность, что вы таким образом даете разрешение на оценку вашего диалога и его использование в обучении ИИ. А если разговор будет помечен как затрагивающий вопросы безопасности (например, если вы упомянете о насилии), операторы компании могут просмотреть его вручную.

Чтобы снизить риски того, что ИИ будет использовать ваши диалоги без вашего на то активного согласия, следуйте простым правилам.

Удаляйте диалоги после завершения общения

По словам директора по информационной безопасности Anthropic (разработчика Claude) Джейсона Клинтона, особо тревожным пользователям следует удалять все разговоры с ИИ сразу после их завершения. Обычно компании очищают удаленные данные через 30 дней, но есть одно важное исключение: DeepSeek, серверы которого находятся в Китае. Согласно ее политике конфиденциальности, она может хранить даже удаленные вами данные неограниченное количество времени, и отказ от этой функции не предусмотрен.

Используйте временный чат

Временный чат ChatGPT, расположенный в правом верхнем углу окна чат-бота, во многом похож на режим инкогнито в браузере. Включите его, чтобы банк памяти ChatGPT не добавил этот материал в ваш профиль. Чат не будет отображаться в вашей истории, а его содержимое не будет использоваться для обучения модели.

Спрашивайте анонимно

Сервис Duck.ai, созданный поисковой системой DuckDuckGo, анонимизирует запросы для выбранной вами модели искусственного интеллекта, и проверяет, что данные не используются для обучения модели. Правда, его функционал ограничен — его нельзя, например, попросить анонимизировать файлы (он просто с ними не работает).

Вы уже оценили материал
Продолжайте читать
Сознание
18 апреля, 2025

Как развить критическое мышление?

Краткий пересказ вебинара с Тарасом Пащенко: определения, стратегии, дополнительное чтение. Плюс: новое интервью

Краткий пересказ вебинара с Тарасом Пащенко: определения, стратегии, дополнительное чтение. Плюс: новое интервью

Как развить критическое мышление?
Отношения
18 апреля, 2025

Три манипуляции, которые можно принять за любовь

Разбираем неблагополучные сценарии в романтических отношениях и стараемся в них не попасть

Разбираем неблагополучные сценарии в романтических отношениях и стараемся в них не попасть

Три манипуляции, которые можно принять за любовь
SPECIAL
10 марта, 2025

Обучение для взрослых: как начать и не бросить

14 приемов, проверенных наукой и лабораторией Яндекс Практикума

14 приемов, проверенных наукой и лабораторией Яндекс Практикума

Обучение для взрослых: как начать и не бросить