🍪 Мы используем Cookie и Яндекс Метрику. Подробнее в политике конфиденциальности и согласии на обработку персональных данных.
OK

Сценарии использования

Разные роли — разные задачи. Одна платформа.
РИСК
  • 45% разработчиков используют AI без разрешения — нет контроля, нет аудита
  • Невозможно оценить ROI от AI-инструментов: кто реально ускоряется, а кто еще использует старые инструменты
Разработчики уже используют AI — и это хорошо: продуктивность растёт, команды доставляют быстрее. Но запрещать AI непродуктивно, а разрешать без  контроля — рискованно. Нет ответа на вопросы: кто из разработчиков использует AI? какие данные уходят наружу? какие инструменты подключены? как  быстро команды внедряют AI?
Проблема
Strazh Gateway — proxy для Cursor, Copilot, Claude Code. Разработчики  продолжают работать как раньше, а CTO получает: контроль что отправляется и  что делает агент, политики по командам и проектам, полную аналитику AI￾внедрения.
Решение
  • Безопасное внедрение AI без замедления разработки
  • Маскирование критичных данных перед отправкой
  • Видимость: какие команды используют AI, как часто, через каких провайдеров
  • Данные для обоснования бюджетов на AI-инструменты перед бордом
Польза
Head of Engineering
CTO
РИСК
  • Бесконтрольный агент эксфильтрирует данные от имени сотрудника — классический внутренний инсайдер, но автоматизированный
  • Вредоносные плагины (.cursorrules, MCP-коннекторы) дают атакующему доступ к файлам и shell — успешность бэкдоров 41-84%
  • Секреты и API-ключи утекают к AI-провайдерам — из DeepSeek утекли 1M+ чатов с ключами прямо из их БД
  • Нет журнала аудитов — при инциденте невозможно восстановить что произошло
AI coding assistants — это не чат. Это новый оператор рабочего места с доступом к коду, секретам, файлам и shell. Агенты читают проект, получают внешний контент, вызывают инструменты и действуют от имени разработчика. Для CISO это новая площадь атаки, которой не было год назад.
Проблема
Strazh Gateway — мониторинг каждого действия AI-агента в реальном времени, проверка плагинов и tool calls до выполнения, блокировка утечек секретов и PII, полный трейс каждого запроса.
Решение
  • Закрытие новой attack surface без блокировки инструментов разработки
  • Полный журнал аудита AI-взаимодействий для расследования инцидентов
  • Соответствие ФЗ-98 (код, стратегия, финансы — коммерческая тайна)
  • Проверка MCP и плагинов до того, как они получат доступ к среде
Польза
AI Coding Assistants
CISO / AppSec
РИСК
  • Prompt injection — уязвимость #1 LLM-приложений (OWASP 2025): модель выполняет произвольные команды
  • Отравленный документ в RAG превращает ответы в ложные или вредоносные — data poisoning без доступа к модели
  • Скомпрометированный tool call = действие с правами пользователя: доступ к БД, файлам, API
  • Slack AI (2024) — реальная эксфильтрация данных из приватных каналов через prompt injection
Компания запускает AI-приложения, RAG-системы и агентов — они уже работают с пользовательским вводом, внутренними документами и вызовами инструментов. Традиционные WAF и DLP не видят этот трафик и не понимают контекст LLM.
Проблема
LLM Firewall — runtime-сканирование input, output и tool calls. Блокировка инъекций до модели, проверка RAG-контента на каждом этапе, валидация вызовов инструментов. Методология OWASP Top 10 for LLM.
Решение
  • Защита AI-приложений без переписывания кода — слой безопасности между приложением и моделью
  • 90% компаний внедряют LLM, только 5% готовы к безопасности — Firewall закрывает этот разрыв
  • Runtime-защита: работает в реальном времени, не на этапе тестирования
  • Единый контроль для всех AI-приложений компании
Польза
AI Applications и RAG
CISO / AppSec
РИСК
  • Shadow AI — причина 20% утечек, средний ущерб $4.63M — на $670K дороже обычных инцидентов (IBM 2025)
  • Персональные данные (ФИО, паспортные данные, СНИЛС, ИНН) уходят к AI-провайдерам — прямое нарушение ФЗ-152, штрафы до 20 млн ₽ / 3% выручки
  • Секреты (API-ключи, пароли, токены доступа) попадают в обучающие данные провайдера — компрометация инфраструктуры через утечку в AI-чат
  • Коммерческая тайна теряет режим защиты при передаче во внешний AI (ФЗ-98) — утрата правовой защиты
  • При аудите невозможно доказать, что компания контролирует AI usage
Сотрудники и команды подключают AI-сервисы быстрее, чем ИБ успевает реагировать. Нет полного списка AI-инструментов в компании, нет видимости какие данные уходят и куда. Через AI-чаты утекают персональные данные (ФИО, паспорта, СНИЛС, ИНН), секреты (API-ключи, пароли, токены) и конфиденциальные документы. Для compliance это чёрная дыра.
Проблема
AI Data Security — обнаружение всех AI-сервисов в компании, политики по пользователям и командам, защита данных на уровне proxy: детекция и маскирование PII (русскоязычные ФИО, паспорт, СНИЛС, ИНН), блокировка секретов (API-ключи, пароли, токены), аналитика AI usage.
Решение
  • Полная карта AI-внедрения: какие инструменты, кем, как часто, какие данные
  • Персональные данные и секреты не покидают периметр — маскирование и блокировка до отправки провайдеру
  • Доказуемый комплаенс для аудиторов и регуляторов (ФЗ-152, ФЗ-98)
  • Аналитика для руководства: кто двигает инновации, а где создаётся неконтролируемый риск
Польза
Shadow AI и защита данных
CISO / Compliance