
Выполнено с помощью ИИ
Когда вы жалуетесь ChatGPT на бессонницу, просите Gemini подобрать диету или загружаете в Claude черновик контракта — вы делитесь данными с компанией-разработчиком, которая может распорядиться ими по своему усмотрению. Как показывают исследования, все разработчики обучают свои ИИ-модели на пользовательских чатах; некоторые хранят данные бессрочно, а есть и такие, которые передают вашу информацию властям по первому требованию. При этом сотни миллионов людей продолжают ежедневно доверять чат-ботам подробности своей жизни, о которых не рассказали бы и друзьям.
Мы составили практическое руководство по шести популярным ИИ-сервисам — ChatGPT, Claude, Gemini, Grok, Copilot и DeepSeek: что конкретно стоит изменить в настройках каждого из них, какую информацию лучше не вводить и почему «удалить чат» не значит «удалить данные».
Чтобы ИИ-модель отвечала лучше, ее нужно учить — в том числе на реальных разговорах с реальными пользователями, которые поправляют, уточняют и объясняют, чего хотят. Поэтому по умолчанию почти во всех сервисах включено обучение, то есть автоматическая передача ваших данных в массив информации, на котором обучается следующая версия ИИ-модели.
Означает ли это, что после обновления модель может выдать ваши данные в ответ другому пользователю? В обычных условиях это крайне маловероятно. Перед обучением данные разбиваются на короткие фрагменты и перемешиваются с миллиардами таких же фрагментов, полученных от других пользователей. Но в 2023 году группа экспертов выяснила, что при целенаправленной атаке Chat GPT все-таки может выдать фрагменты учебного материала в виде связного текста, содержащего реальные email-адреса и телефонные номера, данные с сайтов знакомств и так далее. OpenAI закрыла эту уязвимость, но авторы исследования подчеркивают: пока сама возможность воспроизводить учебные данные остается встроенной в архитектуру, потенциальные уязвимости неизбежны.
Хорошая новость в том, что включить режим opt out, то есть отказ от передачи данных для обучения, в большинстве популярных ИИ-моделей очень просто. Основной массив данных для обучения компании берут не из ваших чатов, а из открытых источников — книг, сайтов, научных статей, форумов. Так что без вашего вклада следующая версия модели не станет глупее.
ChatGPT по умолчанию использует ваши чаты для обучения на всех тарифах, кроме корпоративных (Enterprise, Team, Edu). Как отключить: Settings → Data Controls → «Improve the model for everyone» → Off.
Claude до сентября 2025 года не использовал пользовательские данные для обучения — и это было его главным конкурентным преимуществом. Теперь на потребительских тарифах обучение включено по умолчанию. Как отключить: Settings → Privacy → переключатель обучения → Off. Важный нюанс: если вы открывали старые чаты после 8 октября 2025 года при включенном обучении, они уже могли попасть в датасет. Разговоры в инкогнито-режиме не используются для обучения в любом случае.
Gemini передает данные ваших чатов для улучшения всех ИИ-продуктов Google. Как отключить: myactivity.google.com/product/gemini → Turn Off → Turn Off and Delete Activity. В мобильном приложении: профиль → Gemini Apps Activity → Turn Off. Если вы пользуетесь Gemini Live (голосовой и видеорежим), для него есть отдельный переключатель в том же разделе Gemini Apps Activity, разрешающий Google использовать голосовые и видеозаписи для улучшения сервисов. Его тоже нужно выключить.
Grok доступен в двух вариантах — как встроенная функция соцсети X (бывший Twitter) и как отдельный сервис на grok.com, — и настройки приватности у них разные. Если вы пользуетесь Grok через X, отключите обучение так: Settings and privacy → Privacy & safety → Data sharing and personalization → Grok → снять галочку. Нужно понимать, что полностью это проблему не решает: по условиям X от января 2026 года, компания сохраняет за собой право использовать ваши взаимодействия с Grok в рамках так называемого «штатного функционирования модели» — то есть модель продолжает учитывать контекст ваших разговоров в своей работе, просто не включает их в отдельную процедуру тонкой настройки. Полный отказ от передачи данных через X недоступен. Если вы пользуетесь Grok через grok.com, отключите обучение: иконка профиля → Settings → Privacy → снять разрешение на использование данных для обучения. Здесь приватность регулируется политикой компании xAI, а не условиями X, и отказ распространяется на все виды обучения.
Copilot. До 2025 года обучение отключалось одним переключателем — Use my data to improve Copilot. Теперь Microsoft разделила его на два: Model training on text (текстовые запросы) и Model training on voice (голосовые запросы). Как отключить: на copilot.com — иконка профиля → ваше имя → Privacy → выключить оба переключателя. В приложении Copilot для Windows или macOS: иконка профиля → Settings → Privacy → отключить. Если вы настраивали приватность до 2025 года, проверьте заново — старый переключатель больше не действует.
DeepSeek. Здесь возможности отказаться от обучения нет. Предупрежден — вооружен.
У чат-ботов есть функция памяти, задача которой — составлять структурированный набор фактов о вас, привязанный к вашему аккаунту. В отличие от данных, используемых для обучения, которые разбиваются на фрагменты, эта информация хранится в виде связной записи — своего рода досье: имя, возраст, город, профессия, интересы, предпочтения по стилю общения.
Часть этих данных вы сообщаете сами — вводите в профиль при регистрации или в настройках, упоминаете в запросах («я живу в Москве», «мне 40 лет»). Часть данных о вашем культурном бэкграунде и квалификации модель выводит самостоятельно: по языку, на котором вы к ней обращаетесь; по уровню и типу ваших запросов; по тому, что вы интересуетесь детским питанием или ипотечными ставками в определенном городе. Часть информации поступает из подключенных сервисов: например, Grok берет данные из вашего профиля в X, Gemini — из аккаунта Google, Copilot — из среды Microsoft 365. Из десятков таких деталей постепенно складывается портрет — и чем дольше вы пользуетесь сервисом, тем он подробнее.
Персонализация — функция полезная: не нужно каждый раз объяснять модели, кто вы, на каком языке хотите общаться, в каком формате получать ответы. Но поскольку память содержит конкретную персональную информацию в читаемом виде, риск здесь выше, чем при передаче данных для обучения. Потенциальную опасность представляют прежде всего утечки — с вашего устройства или с серверов компании.
Полностью отключать память не обязательно. Но стоит зайти в настройки и посмотреть, что именно модель о вас записала. Безопасно оставить: имя или псевдоним, язык общения, страну без точного адреса, профессиональную область в общих чертах, предпочтения по формату ответов. Стоит убрать: конкретного работодателя, названия проектов, диагнозы, имена членов семьи, финансовые данные, домашний адрес.
ChatGPT настроен на индивидуальный подход к пользователю и поэтому собирает на вас досье активнее остальных. С апреля 2025 года он не просто сохраняет факты, которые вы попросили запомнить, но и самостоятельно извлекает личный контекст из всех предыдущих разговоров. Как проверить и почистить: Settings → Personalization → Memory → Manage Memory. Каждый пункт можно удалить отдельно или нажать Delete All. Извлечение контекста из истории чатов отключается там же: Settings → Personalization → отключить использование Chat history. Если вы пользуетесь браузером ChatGPT Atlas, у него есть отдельная функция Browser Memories — проверьте и ее: Settings → Personalization → View browser memories.
Claude хранит список фактов, извлеченных из разговоров. Как проверить и почистить: Settings → Profile — там виден весь список, каждый пункт можно удалить.
Gemini помнит личную информацию только в ходе конкретной сессии, но зато извлекает ее из аккаунта Google. Речь идет о данных из истории поиска, переписки в Gmail и истории просмотров в YouTube. Чтобы ограничить эту функцию, отключите Gemini Apps Activity: Settings → Gemini Apps Activity → отключить тумблер. И проконтролируйте расширения: Settings → Extensions — здесь перечислены сервисы, к которым Gemini имеет прямой доступ (Gmail, Google Drive, Google Maps, YouTube и другие). Отключите тумблеры у тех, доступ к которым вы хотите закрыть.
Grok персонализирует ответы на основе вашего профиля в X — постов, интересов, подписок, голосовых вводов. Как ограничить: Settings and privacy → Privacy & safety → Data sharing and personalization. Радикальный вариант — закрыть аккаунт (Protect your posts), чтобы ваши публичные посты в принципе не использовались для персонализации Grok.
Copilot имеет доступ фактически ко всему вашему рабочему пространству в среде Microsoft 365, включая хранящиеся в облаке файлы, письма и календарь. Отдельных настроек памяти нет; управление — через настройки приватности Microsoft 365. На личном copilot.com можно узнать, что Copilot о вас помнит, спросив его напрямую: «What do you know about me?» — и попросить забыть конкретные факты. Придется поверить ему на слово.
DeepSeek не предлагает пользователю функции памяти, которую можно было бы просмотреть или почистить. Все ваши данные хранятся на серверах в Китае, и нет никакого инструмента для проверки, что именно DeepSeek о вас знает: ни кнопки «посмотреть», ни кнопки «удалить», ни причин полагать, что удаление истории чатов стирает что-либо по-настоящему.
Когда вы удаляете чат, он исчезает из вашего интерфейса — но не с серверов компании. Полный текст разговора продолжает храниться — от 30 дней до нескольких лет, в зависимости от сервиса и ваших настроек. Не краткое досье из раздела «Память» и не фрагменты, использованные для обучения, — а именно полный текст. Компании хранят его для модерации, мониторинга безопасности и ответов на судебные запросы — то есть могут предоставить ваши разговоры по решению суда. Кроме того, есть риск утечки. Например, летом 2025 года тысячи чатов из ChatGPT попали в индекс Google из-за технического сбоя. Полностью отказаться от хранения нельзя. Но сроки можно сократить, а историю — периодически чистить.
ChatGPT. Если вы уже отказались от передачи данных для обучения, ваша информация будет хранится 30 дней после удаления. Без отказа — бессрочно. Как очистить историю: Settings → General → Delete all chats. Отдельно можно запросить удаление персональных данных из обучающих наборов: OpenAI Privacy Portal → Personal Data Removal Request. OpenAI не гарантирует исполнения, но запрос фиксируется.
Claude. При отказе от передачи данных для обучения информация хранится 30 дней. Без него — до 5 лет. Как удалить историю: Settings → Delete conversations.
Gemini. По умолчанию хранит тексты чатов 18 месяцев. Чтобы сократить до трех месяцев: myactivity.google.com/product/gemini → Auto-delete → 3 months.
Grok. Сроки хранения после удаления истории не указаны. Как очистить историю: Settings and privacy → Privacy & safety → Data sharing and personalization → Grok → Delete Conversation History.
Copilot. Хранит историю 18 месяцев. Удалить ее можно двумя способами. Через интерфейс: боковая панель с историей чатов → выбрать нужный разговор → иконка корзины (или три точки → Delete). Через страницу конфиденциальности Microsoft: перейти на privacy.microsoft.com → войти в свой аккаунт → App and service activity → выбрать данные Copilot → Delete.
DeepSeek не раскрывает, как долго хранит историю разговоров. Кнопка удаления есть: Settings → Clear Chat History → Confirm. Но нет никаких гарантий, что она это делает: компания подчиняется китайскому законодательству, а оно обязывает хранить данные пользователей неограниченное время и предоставлять их властям по первому запросу.
Информация из файлов, которые вы загружаете в чат-бот, тоже хранится на серверах, может использоваться для обучения и попадает в историю. Вы загружаете PDF контракта, чтобы попросить о кратком пересказе, — а в PDF есть имена, суммы, юридические адреса. Вы просите чат-бот разобраться в медицинской справке — а в ней диагноз и личные данные. Вы прикладываете к обсуждению налоговую квитанцию, чтобы уточнить, правильно ли начислен вычет, а в ней — ваш ИНН. Вы отправляете фотографию, а на ней — номер вашей машины. Все это сохраняется.
Общее правило: перед загрузкой таких данных стоит потратить минуту на анонимизацию — заменить реальные имена на «Сторона А» и «Сторона Б», убрать точные суммы, замазать или удалить паспортные данные, ИНН, реквизиты.
Что безопасно загружать: публичные документы, учебные материалы, собственные черновики без персональных данных.
Что загружать не стоит: контракты с реальными реквизитами, медицинские заключения, налоговые документы, корпоративные презентации со стратегией, таблицы с персональными данными клиентов, письма с конфиденциальной информацией.
Отдельный вопрос — проекты. В ChatGPT и Claude есть возможность создавать рабочие пространства, куда загружают десятки файлов: исследования, черновики, переписку, внутреннюю документацию. Все загруженные файлы хранятся на серверах компании на тех же условиях, что и обычные чаты, а удаление проекта не гарантирует немедленного удаления файлов с серверов. Поэтому в проекты, где файлы накапливаются и лежат долго, вообще не стоит загружать документы с личными данными: удалить их потом вы не сможете.
ChatGPT. Все загруженные файлы обрабатываются в облаке OpenAI. Даже если включен отказ от передачи данных для обучения, они все равно хранятся, но для обучения не используются. Удаление проекта с файлами из интерфейса, как и в случае с чатами, не означает немедленного удаления с серверов. Отдельно стоит отметить Operator — агент-браузер ChatGPT, который делает скриншоты вашего экрана в процессе работы. Скриншоты хранятся 90 дней. Любая страница браузера, открытая в таком режиме, будь то личный кабинет онлайн-банка или имейл, сохраняется.
Claude. Если включен отказ от передачи данных для обучения, загруженные файлы для этих целей не используются. Проекты, как и в случае ChatGPT, хранят файлы на серверах компании.
Gemini. Загруженные файлы обрабатываются в облачной структуре Google. Если функция Apps Activity включена, они могут использоваться для улучшения продуктов Google. Единственный способ ограничить использование файлов для обучения — отключить Gemini Apps Activity целиком.
Grok обрабатывает загруженные файлы и изображения так же, как и любые запросы. Удалить их из системы после обработки нельзя: отдельной кнопки или настройки для этого не предусмотрено. Использование загруженных файлов для обучения модели подчиняется общей настройке: Settings → Privacy → снять галочку Allow training on your data. Но даже при снятой галочке X сохраняет за собой право использовать ваши данные.
Copilot обрабатывает загруженные файлы в облаке Microsoft. Кроме того, в среде Microsoft 365 ИИ-модель работает с файлами, которые уже хранятся в вашем облаке — OneDrive, SharePoint, вложения в Outlook. То есть она может читать документы, даже если вы не предоставляли ей к нему доступ. Как это ограничить: Settings → Plugins and connections → отключить тумблеры у Microsoft 365, OneDrive, SharePoint и других источников, к которым Copilot не должен обращаться.
DeepSeek. Загруженные файлы хранятся и обрабатываются на серверах компании. Возможности ограничить к ним доступ нет. Так что загружать сюда конфиденциальные документы не стоит ни при каких обстоятельствах.
К аккаунту в чат-боте стоит относиться так же, как к аккаунту электронной почты, то есть серьезно. Он хранит не меньше, а иногда и больше информации о вас. А если аккаунт платный, к нему привязана еще и платежная информация: карта, платежный адрес, история транзакций.
Чтобы получить логин и пароль, злоумышленникам не нужно взламывать хорошо защищенные серверы OpenAI или Google. В подавляющем большинстве случаев учетные данные достаются им из-за беспечности самих пользователей — чаще всего через вредоносные расширения для браузеров и сторонние программы для работы с ИИ, куда мы вводим данные аутентификации сами.
Главные правила защиты аккаунта: надежный пароль, двухфакторная аутентификация, никаких сомнительных расширений.
ChatGPT. Включите двухфакторную аутентификацию: Settings → Security → Multi-Factor Authentication → включить. Там же проверьте список активных сессий и закройте те, которые не узнаете. Не устанавливайте сторонние браузерные расширения для ChatGPT — именно через них в 2025 году произошла массовая кража данных.
Claude. Включите двухфакторную аутентификацию: Settings → Security → Two-Factor Authentication → включить. Claude предложит подключить приложение-аутентификатор (Google Authenticator, Authy и аналоги) и выдаст десять одноразовых резервных кодов для восстановления доступа — сохраните их в надежном месте.
Gemini. Безопасность Gemini — это безопасность вашего аккаунта Google. Как настроить: myaccount.google.com → Security → 2-Step Verification. Одна настройка защищает одновременно Gemini, Gmail, Drive, YouTube и все остальные сервисы Google.
Grok. Через X: Settings → Security and account access → Security → Two-factor authentication. Через grok.com — зависит от способа входа (аккаунт X, Google или Apple).
Copilot. Безопасность привязана к аккаунту Microsoft: account.microsoft.com → Security → Advanced security options → Two-step verification.
DeepSeek. Двухфакторной аутентификации нет. Поэтому лучше не регистрироваться в DeepSeek через Google или Apple, чтобы в случае взлома не пострадали ваши основные аккаунты. Используйте отдельный имейл и пароль, которые не используется больше нигде.
Совет. Отключив обучение и настроив память, вы закроете основные каналы утечки — но не все. Главный источник информации для любого чат-бота — вы сами. Поэтому самый надежный фильтр — простое правило: прежде чем отправить запрос, спросите себя, готовы ли вы увидеть этот текст в открытом доступе. Если нет — переформулируйте запрос так, чтобы из него нельзя было извлечь ничего, что вы не хотели бы раскрывать.
Но не так плохо обстоят дела с двукратными визами
Гид по пищевым добавкам: как торговая сеть определяет, что может содержаться в продуктах на полках
Простые приемы, которые помогают войти в любую тему
