AI coding assistants уже получили доступ к коду, секретам, документации и инструментам разработчика. Для компании это уже не просто чат, а новый оператор рабочего места без единой точки контроля.
Почему это критично
Угроза: читает код, вызывает инструменты, отправляет данные наружу
Риск: агент становится оператором рабочего места — может не разрабатывать, а эксфильтрировать данные или выполнять вредоносные действия от имени сотрудника
Решение: мониторинг каждого действия AI-агента в реальном времени
Угроза: skills, tools и MCP-коннекторы подключаются без проверки
Риск: через заражённый плагин атакующий получает доступ к файлам, сети и shell с правами разработчика — бэкдоры через .cursorrules имеют success rate 41-84%
Решение: проверка skills, tools и MCP до и во время использования
Вредоносные плагины и коннекторы
Угроза: секреты, ключи и критичные данные утекают через запросы к AI-провайдерам
Риск: исходный код, API-ключи и клиентские данные оказываются у провайдера — из DeepSeek утекли 1M+ чатов с API-ключами прямо из их БД
Решение: блокировка и маскирование утечек до отправки
Угроза: нет единых правил — каждый использует AI как хочет
Риск: невозможно доказать комплаенс, расследовать инцидент или понять масштаб использования — штрафы до 20 млн ₽ / 3% выручки
Решение: политики по пользователям, проектам и типам действий