Ни для кого не новость, что работники все чаще полагаются на ChatGPT, Copilot, Gemini и другие инструменты ИИ, чтобы работать быстрее. Это естественно. Такие инструменты упрощают написание текстов, анализ и исправление ошибок в коде, процесс исследования и повседневную коммуникацию.
Однако один быстрый акт копипаста данных в промпт к ИИ может незаметно вывести чувствительную информацию за пределы компании и большинство средств безопасности этого не фиксируют. Это уже не единичная ошибка, такое поведение постепенно становится ежедневной практикой.
Искусственный интеллект незаметно создал новый канал утечки данных
Инструменты ИИ воспринимаются как полезные и безопасные. Копируется и вставляется абзац текста, фрагмент журнала событий или несколько строк кода. Загружается черновик документа или электронная таблица. К ИИ обращаются с просьбой отредактировать текст, сделать краткое изложение или обнаружить ошибку.
Это кажется приватным.
Это кажется безопасным.
Это выглядит как использование любого другого инструмента.
Но это не так.
Каждое вставление, каждая загрузка и каждый запрос типа «помоги переписать это» происходят вне контроля организации. Поскольку инструменты работают в браузерных окнах и чат-интерфейсах, они обходят традиционные пути мониторинга, на которые опираются команды безопасности.
Такие ситуации наблюдаются в разных отраслях:
- разработчики вставляют конфиденциальный код для отладки;
- аналитики копируют данные клиентов для обобщения;
- HR-подразделения передают внутренние документы для переформулирования;
- финансовые команды загружают электронные таблицы для исправления формул;
- службы поддержки вставляют чаты, содержащие персональную информацию.
В этом нет злого умысла.
Это лишь попытки выполнить работу более эффективно.
Однако инструменты ИИ превращают привычные способы более быстрого выполнения задач в реальные риски утечки данных.
Почему это является инсайдерской угрозой даже при отсутствии злого умысла

Инсайдерские угрозы не всегда умышленны. На самом деле сегодня самый большой риск происходит от сотрудников с благими намерениями.
Когда конфиденциальная информация копируется в инструмент ИИ, немедленно происходят несколько вещей:
- данные покидают пределы внутренней среды;
- теряется видимость того, куда именно они попадают;
- нет возможности их удалить или отозвать;
- невозможно отследить, кто еще получает доступ к ним;
- невозможно доказать, что именно произошло после этого.
В результате риск сразу приобретает следующие формы:
- юридическую;
- регуляторную;
- контрактную;
- репутационную.
Одно единственное вставление данных может поставить под угрозу отдельную команду или всю компанию, без предупреждения, уведомления или возможности отменить действие.
Почему традиционные решения DLP не обнаруживают такие ситуации
Большинство организаций до сих пор полагаются на классические инструменты предотвращения утечки данных (DLP). Такие решения анализируют электронную почту, передачу файлов, загрузку в облачные сервисы, сетевой трафик или использование съемных носителей.
И вот в чем проблема: инструменты на основе ИИ обходят все эти механизмы.
Все взаимодействие происходит в текстовом поле браузера или в чат-окне.
Нет движения файлов, которое DLP могло бы проанализировать.
Нет электронной почты, вложений или характерных признаков сетевого трафика.
Традиционные решения DLP рассчитаны на то, что данные перемещаются по предполагаемым путям. Использование ИИ больше не следует этим путям. В результате:
- ничего не обозначается как инцидент;
- ничего не блокируется;
- ничего не отображается в отчетах;
- команды безопасности не осознают, что утечка уже произошла или происходит.
Именно поэтому многие руководители чувствуют, что ИИ появился быстрее, чем механизмы контроля успели к нему адаптироваться.
Новые механизмы контроля, которые организации начинают внедрять
Компании не запрещают использование инструментов ИИ. Вместо этого они корректируют подходы к их применению и внедряют простые меры предосторожности, снижающие риски без замедления рабочих процессов.
В настоящее время наблюдаются следующие практики в командах:
- Четкие правила использования ИИ. Краткие, практические руководства относительно того, какие данные можно, а какие нельзя передавать ассистентам на основе ИИ.
- Одобренные платформы ИИ. Использование Copilot или других корпоративных решений ИИ в пределах управляемой и контролируемой среды.
- Ограничение чрезмерного доступа. Уменьшение круга лиц, имеющих доступ к конфиденциальным данным с самого начала.
- Предотвращение непреднамеренных ошибок сотрудников. Обучение распознавать ситуации, когда существует риск передачи чувствительной информации.
- Дополнительная защита на уровне конечных устройств. Внедрение ограничительных механизмов на пользовательских устройствах, проверяющих текст и файлы до их передачи в инструменты ИИ.
Эти меры не требуют значительных инвестиций и являются простыми обновлениями, устраняющими разрыв между современными рабочими практиками сотрудников и требованиями компаний по защите данных.
Шаги, которые руководство может осуществить уже сейчас
Несколько действий позволяют быстро снизить риски, связанные с использованием ИИ:
- Определить команды, наиболее активно использующие инструменты ИИ. Большинство руководителей недооценивают масштабы их применения. ИИ используется повсеместно: в разработке, службах поддержки, HR и финансах.
- Проанализировать рабочие процессы, предполагающие обработку чувствительных данных. Это позволяет понять, в каких моментах копипаст информации создаёт наибольшие риски.
- Определить список разрешенных инструментов на основе ИИ. Не все платформы на основе ИИ обеспечивают одинаковый уровень контроля и конфиденциальности.
- Ввести предохранительные механизмы на пользовательских устройствах. Это позволяет не допустить выхода важных данных за пределы конечной точки еще на начальном этапе.
Нет необходимости запрещать сотрудникам использование ИИ. Достаточно не допустить попадания конфиденциальной информации туда, где ей не место.
Вывод: небольшое действие может привести к масштабному инциденту
Копипаст всегда был быстрым способом упростить работу. Инструменты ИИ превратили это в другое явление – новый инсайдерский риск, который легко оставить без внимания. Сотрудники не пытаются создавать проблемы. Они стремятся работать быстрее. При наличии нескольких четких правил и современных мер предосторожности эти цели могут сочетаться.
Многие организации в настоящее время внедряют защиту на уровне конечных устройств, которая проверяет данные, передаваемые инструментам ИИ, еще до того, как информация покидает устройство. Это работает как для простых текстовых запросов, так и для полноценных загрузок файлов в таких инструментах как ChatGPT, Microsoft 365 Copilot, Google Gemini, DeepSeek, Grok, Claude или любых других LLM, которые могут использовать сотрудники.
Такие меры предосторожности также формируют четкие аудиторские журналы и отчеты, поддерживающие внутренние проверки, расследования и выполнения требований комплаенса.
На практике эти подходы реализуются, в частности, с помощью Netwrix Endpoint Protector, который помогает организациям предотвращать непреднамеренные утечки данных, связанные с использованием ИИ, без замедления рабочих процессов.







