Инженер ночью отправляет фрагмент кода в ChatGPT, пока система безопасности компании не контролирует передачу данных во внешние ИИ-сервисы. Нарушая правило Теневой ИИ

Запреты не работают: почему сотрудники всё равно «сливают» данные в публичные нейросети

Ночной инженер и новая реальность корпоративного ИИ

Где-то в два часа ночи, закончив работу над очередной частью проекта, инженер берет кусок разработанного им за день кода, кидает в публичный чат-бот и просит найти ошибку. Дешево. Быстро. Почти гениально — если забыть, что это экспорт интеллектуальной собственности в чужую инфраструктуру.

И вот тут начинается взрослая жизнь. Потому что этот эпизод — не «нарушение дисциплины». Это новый производственный процесс, который возник сам. Без приказа. Без согласования. И, конечно, без ответственности.

Как «копипаст» в чат-бот стал новым производственным процессом

В феврале 2026 года аналитики выдали цифру, от которой у служб безопасности обычно дергается глаз: за год объем данных, отправляемых в общедоступные ИИ-сервисы, вырос более чем в 30 раз. Они смотрели трафик 150 компаний и параллельно зафиксировали другое: около 60% организаций живут без формализованных правил работы с такими инструментами.

Что такое теневой ИИ и почему он быстро растет

Формулировка «теневой ИИ» (Shadow AI) здесь даже чересчур мягкая. IBM, например, описывает Shadow AI как несанкционированное использование ИИ-инструментов без одобрения и надзора ИТ — то есть классический Shadow IT, только теперь сотрудник носит «облако» в кармане.

Почему Shadow AI больше нельзя считать исключением

Нет –  это не редкие случаи. Прогнозы у аналитиков холодные: Gartner ожидает, что к 2030 году около 40% компаний столкнутся с инцидентами безопасности или комплаенса из-за несанкционированного использования таких решений.

Почему запреты на ChatGPT и публичные нейросети не работают

Почему запреты не работают (и даже вредят)?  Запрет — это красивый жест. Почти театральный. Но в театре артист на сцене не пытается закрыть квартальный план.

В реальности запрет использовать публичные ИИ делает две вещи:

  1. повышает трение (время на задачу растет прямо сейчас);
  2. выталкивает практику в серую зону (личные телефоны, домашние аккаунты, «а я просто с мобильного»).

Как запреты повышают трение и снижают скорость работы

И у бизнеса, и у ИБ логика железная. Бизнесу нужна скорость. Безопасности нужна управляемость. Проблема в том, что скорость сегодня обеспечивается не сервером — а «копипастом» в интерфейс, который не принадлежит компании.

Почему сотрудники уходят в «серую зону»

Кстати, по нашим данным, значимая доля конфиденциальных файлов и промтов утекает именно через ChatGPT — как через самый доступный «универсальный ключ».

Ответственность остается у компании, а не у нейросети

Но тут дыра не в файрволе. Дыра в ответственности.  Мы привыкли думать, что безопасность — это линейка продуктов: еще один шлюз, еще одна лицензия, еще один «умный» детектор. А вот парадокс в том, что самые громкие последствия прилетают не из-за отсутствия железки, а из-за отсутствия правил, кто и за что отвечает.

Чему бизнес учит кейс Air Canada

Суд, например, не интересует философия «это сказал бот». В деле Air Canada чат-бот дал пассажиру неверную информацию о возврате, и компанию обязали компенсировать ущерб: ответственность осталась у перевозчика, а не у диалогового интерфейса.

Как генеративный ИИ усиливает социальную инженерию

Другая сторона той же монеты — социальная инженерия, усиленная генеративными моделями. В кейсе Arup сотрудника убедили перевести около 200 млн гонконгских долларов после видеозвонка с дипфейками «руководителей». Это уже не утечка «по глупости». Это подмена реальности как сервис.

И получается неприятное: технический канал — новый, а юридическая и управленческая тяжесть — старая. Она падает на организацию и на тех, кто обязан был выстроить «должную осмотрительность». Не потому что они плохо сработали. А потому что так устроены правила игры.

Цифровая таможня вместо нового забора

Рождение «цифровой таможни»? Давайте честно: периметр больше не забор. Это набор дверей, половина из которых ведет в веб-интерфейс.

Значит, нужен не «еще выше забор», а контролируемый пункт пропуска — цифровая таможня. В одном из российских проектов такой пакет организационных работ называют TrustPack (название здесь символично, но еще больше важна логика). Суть не в «своей нейросети» и не в антивирусе. Суть — в управлении данными и поведением людей.

Что такое TrustPack и зачем он нужен компании

Как выглядит таможня, если перевести метафору в регламент? Наша управленческая практика показывает, что всё сводится к нескольким простым правилам.

Пять правил безопасной работы с нейросетями в компании

Разделение данных на разрешенные и запрещенные категории

Сначала компания делит данные на категории. Одни можно отправлять в нейросети — например, публичные тексты или обезличенную статистику. Другие — никогда: коммерческие секреты, ключи доступа, персональные данные, информация из контуров критической инфраструктуры.

Матрица ролей и уровней доступа

Дальше вводится матрица ролей и доступа. Это просто – у каждого сотрудника свой уровень прав. Не «всем понемногу», а четко: кто и с какими данными может работать.

Как должен работать единый шлюз для ИИ-сервисов

Следующий элемент — единый шлюз для работы с ИИ-сервисами. Он вовсе не обязательно всё запрещает, но позволяет видеть, какие данные уходят наружу, и при необходимости ограничивать их.

Журналирование запросов и ответов

При этом ведется полное журналирование: каждый запрос к нейросети, каждый ответ и каждая выгрузка фиксируются в системе.

Почему последнее слово должен оставлять человек

И последний принцип — в контуре принятия решений должен обязательно быть человек. Нейросеть может анализировать и предлагать решения, но окончательное решение принимает сотрудник. И именно он несет за него ответственность.

Звучит сурово? Да. Зато это возвращает компании то, что она потеряла: управляемость.

Как измерить эффект от внедрения правил работы с ИИ

Экономика доказуемого эффекта. Самый токсичный вопрос любой «инновации»: «а где деньги?» Не в смысле «сэкономили ли мы час», а в смысле «докажите это так, чтобы аудит не смеялся».

С чего начинается диагностика использования внешних моделей

Поэтому грамотные схемы внедрения обычно начинают не с охоты на ведьм, а с диагностики: где именно сотрудники уже пользуются внешними моделями, какие типы информации туда уходят, какие процессы наиболее соблазнительны для “быстрого копипаста”. Сам факт роста трафика в публичные ИИ-сервисы показывает: практика массовая, ее нельзя «отменить приказом».

Что такое «конституция данных»

Поэтому и появляется документ, который я бы назвал не политикой, а архитектурой: внутренняя «конституция данных». Кто имеет право – и на какой класс информации. В каком виде. Через какой инструмент. С какими ограничениями.

Как перевести снижение рисков в деньги и отчетность

А потом — самое любопытное — протокол верификации эффекта. Базовая линия «как было» (например: количество утечек через веб-формы, доля запрещенных доменов, время на подготовку типовых ответов в поддержке). И линия «как стало» после таможни и правил. Разница переводится в деньги. Не магией — расчетами. И получается прекрасная вещь: инновация становится отчетностью.

Почему рынок переходит от экспериментов к управлению рисками

Почему рынок «взрослеет» именно сейчас? Есть ощущение, что мы наблюдаем смену эпохи: от «поиграли с нейросетями» к «управляем рисками».

Почему эпоха «поиграли с нейросетями» заканчивается

Это видно не только по корпоративным тревогам. Плюс ко всему, прогноз Gartner про рост инцидентов в полтора раза к 2030-му — это не страшилка. Это попытка перевести «теневой ИИ» из жанра анекдота в жанр неизбежности.

Финал, который не финал

Вернемся к ночному инженеру. Он не «враг безопасности». Он просто делает работу. Быстро. Как его учили — результатом.

Что будет с компаниями, которые сохранят иллюзию контроля

И вот вопрос, от которого будет зависеть ближайшая конкурентоспособность промышленности: сможет ли компания построить свой TrustPack – цифровую таможню так, чтобы скорость не умерла, а ответственность наконец обрела форму? Или мы продолжим играть в периметр, а данные уже давно гуляют по миру в виде промтов?

Потому что настоящая ловушка здесь не нейросети. Ловушка — иллюзия контроля. Она приятно греет. И дорого стоит.

эксперт-ICS-Consulting-
Рыбальченко Илья
Автор
эксперт ICS Consulting
старший преподаватель Института международных экономических связей

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *