Безопасность и AI: что нельзя отправлять нейросетям
AI — не твой личный дневник
Ты привыкаешь к AI. Он удобный, быстрый, полезный. И в какой-то момент начинаешь скидывать ему всё подряд: рабочие документы, переписки, финансовые данные, личные истории.
Стоп.
Всё, что ты отправляешь в нейросеть, может быть использовано. Для обучения модели, для хранения на серверах, для утечки при взломе. И да — утечки данных из AI-сервисов уже случались.
В этой статье — конкретные правила: что отправлять безопасно, что категорически нельзя, и как настроить AI-инструменты для защиты.
Что происходит с твоими данными
ChatGPT (OpenAI)
По умолчанию: Твои диалоги используются для обучения модели. Это написано в их ToS.
Как отключить: Настройки → Data Controls → "Improve the model for everyone" → OFF. После этого данные не используются для обучения (по словам OpenAI).
Хранение: Диалоги хранятся на серверах OpenAI. Могут быть доступны сотрудникам для проверки безопасности.
ChatGPT Team/Enterprise: Данные НЕ используются для обучения. Для компаний — это единственный безопасный вариант.
Claude (Anthropic)
По умолчанию: Бесплатные диалоги могут использоваться для обучения. Платные (Pro) — нет.
Хранение: Anthropic хранит диалоги для мониторинга безопасности, но обещает не использовать Pro-данные для обучения.
API: Данные через API не используются для обучения и не хранятся (кроме краткосрочного кеша).
DeepSeek
Серверы: Данные хранятся на серверах в Китае. Это важный момент для конфиденциальной информации.
Обучение: В ToS написано, что данные могут использоваться для "улучшения сервиса".
Регулирование: Подчиняется китайскому законодательству о данных, не GDPR.
Gemini (Google)
По умолчанию: Диалоги могут использоваться для обучения.
Почему опасно: Эти данные могут оказаться в обучающей выборке следующей модели. Или в логах, которые увидят сотрудники сервиса.
Что делать: Если нужна помощь с конфигурацией — замени реальные данные на плейсхолдеры: YOUR_PASSWORD_HERE, YOUR_API_KEY.
2. Персональные данные третьих лиц
Нельзя:
"Вот резюме кандидата: Иванов Пётр Сергеевич, ИНН 772501234567..."
"Проанализируй клиентскую базу: [таблица с ФИО, телефонами, email]"
"Вот переписка с клиентом: [скриншот с именем и контактами]"
Почему опасно:
152-ФЗ (Россия) — закон о персональных данных. Передача ПД третьему лицу (OpenAI, Anthropic) без согласия субъекта — нарушение.
GDPR (если есть европейские клиенты) — ещё строже.
Утечка ПД клиентов = репутационный и юридический ущерб.
Что делать: Анонимизируй данные перед отправкой. "Кандидат А, 28 лет, опыт в маркетинге 3 года" вместо полных ФИО и контактов.
3. Коммерческая тайна и NDA
Нельзя:
"Вот наш бизнес-план на 2026 год: [документ]"
"Проанализируй финансовую модель нашего стартапа: выручка, burn rate, юнит-экономика"
"Вот условия нашего контракта с [компания]: [текст договора]"
Почему опасно: Если ты подписал NDA — передача информации в AI-сервис может быть его нарушением. Многие корпоративные юристы считают отправку данных в ChatGPT — передачей третьей стороне.
Что делать: Для конфиденциальных документов используй:
ChatGPT Enterprise/Team (данные не уходят в обучение)
Claude API (данные не хранятся)
Локальные модели (LLaMA, DeepSeek) — данные вообще не покидают твой компьютер
4. Медицинские данные
Нельзя:
"У моего пациента Сидорова диагноз..."
"Вот результаты анализов: [скан]"
"Расшифруй МРТ: [файл]"
Почему опасно: Врачебная тайна. Передача медданных в облачный сервис — нарушение закона в большинстве юрисдикций.
Что делать: Анонимизируй полностью. "Пациент, мужчина, 45 лет, диагноз X" — без ФИО и привязки к конкретному человеку.
5. Финансовые данные
Нельзя:
Номера банковских карт
Выписки по счетам с реквизитами
Налоговые декларации с ИНН
Данные доступа к банковским кабинетам
Что делать: Если нужен анализ финансов — загружай обезличенные данные: "доход за январь: 150К, расход: 80К" — без реквизитов.
Что МОЖНО отправлять
Не нужно параноить. Вот что безопасно:
Общие рабочие задачи: "Напиши текст для лендинга про фитнес-приложение" — никаких конфиденциальных данных.
Обучающие вопросы: "Объясни мне теорию относительности" — без рисков.
Публичную информацию: "Проанализируй публичный отчёт компании X" — данные уже открыты.
Свои тексты: "Отредактируй мою статью" — если это твоя статья и в ней нет чужих ПД.
Код (свой): "Найди баг в этом коде" — если код не содержит хардкоженных секретов (API-ключей, паролей).
Идеи и планы (свои): "Помоги спланировать отпуск" — никаких рисков.
Если работаешь с конфиденциальными данными регулярно — рассмотри локальные модели. Ollama + LLaMA 3.1 / DeepSeek-V3 на твоём компьютере = данные никуда не уходят. Качество ниже, чем у облачных моделей, но для базовых задач достаточно.
Правила для компаний
Если ты руководитель или отвечаешь за информационную безопасность:
1. Создай AI-политику
Документ (хватит 1-2 страницы), который описывает:
Какие AI-инструменты разрешены
Какие данные запрещено отправлять
Какие тарифы использовать (Enterprise/Team)
Кто отвечает за контроль
2. Используй корпоративные тарифы
ChatGPT Team ($25/мес за пользователя) — данные не в обучении, админ-контроль
Claude Team ($25/мес) — то же самое
Azure OpenAI — модели OpenAI на инфраструктуре Microsoft, с гарантиями enterprise
3. Обучи сотрудников
Главная уязвимость — не технология, а люди. Один сотрудник, который загрузил клиентскую базу в бесплатный ChatGPT — и у тебя проблема.
4. Аудит использования
Если у тебя ChatGPT Team/Enterprise — проверяй логи. Кто что отправляет. Не для слежки — для предотвращения утечек.
AI-галлюцинации: другой вид "небезопасности"
Помимо утечки данных, есть ещё одна проблема: AI врёт.
Нейросети "галлюцинируют" — уверенно выдают несуществующую информацию как факт. Это особенно опасно в:
Юридических вопросах. AI может выдумать статью закона, которой не существует. Были реальные случаи, когда юристы подавали в суд документы с выдуманными прецедентами от ChatGPT.
Медицине. AI может дать опасный совет о лечении.
Финансах. AI может привести неверные данные о компании, рынке, регулировании.
Фактах и датах. Регулярно путает даты, имена, события.
Правило: Всё, что AI выдаёт как факт — проверяй. Особенно если это важно (здоровье, деньги, закон). AI — стажёр, не эксперт.
Часто задаваемые вопросы
Что нельзя отправлять в ChatGPT? Пароли, API-ключи, персональные данные (чужие), медицинские записи, финансовые реквизиты, информацию под NDA. Всё, что может нанести вред при утечке.
ChatGPT сохраняет мои данные? На бесплатном тарифе — да, и может использовать для обучения. Отключи: Settings → Data Controls → "Improve the model for everyone" → OFF. На Team/Enterprise — данные не используются.
Безопасно ли использовать DeepSeek? Данные хранятся на серверах в Китае. Для обычных задач (тексты, планирование) — нормально. Для конфиденциальной информации компании — лучше Claude Pro или ChatGPT Team.
Что запомнить
Бесплатные AI = твои данные могут быть использованы. Это не теория — это написано в Terms of Service каждого сервиса.
Никогда не отправляй: пароли, API-ключи, персональные данные чужих людей, медданные, финансовые реквизиты, информацию под NDA.
Отключи обучение: В ChatGPT → Data Controls → OFF. В Gemini → Activity → OFF. Это 2 минуты, которые стоит потратить.
Для конфиденциальных задач — используй платные корпоративные тарифы или локальные модели.
AI галлюцинирует. Проверяй факты, особенно в юридических, медицинских и финансовых вопросах.
Для компаний — AI-политика обязательна. Один сотрудник без инструкции = потенциальная утечка.
Что дальше
Теперь ты знаешь, как безопасно пользоваться нейросетями. Если хочешь углубиться в тему — читай нашу статью про AI и закон в России: авторские права, персональные данные, регулирование.
А если ты только начинаешь разбираться в AI — возвращайся к нашему вводному курсу "Искусство задавать вопросы" и начни с первой статьи.