Дарья Щербатюк — AI-хоррор: какие кошмары снятся безопасникам
Дарья Щербатюк — Product Owner платформы для цифровых расследований в Group-IB и человек из мира кибербезопасности, который пришел на конференцию не для того, чтобы пугать аудиторию, а чтобы добавить awareness. Ее позиция очень здравая: AI и вайбкодинг действительно суперполезны, но только если понимать, где именно они могут выстрелить в ногу.
Главная цифра: большая часть AI-кода небезопасна
Дарья начала с самой тревожной цифры: значительная доля кода, сгенерированного AI, содержит уязвимости. Причем речь идет не только о классических проблемах вроде XSS или SQL-инъекций, которые еще можно обнаружить стандартными сканерами, но и об уязвимостях бизнес-логики. Именно они часто проходят мимо автоматических аудиторов и всплывают уже на продакшне.
Отдельно она подчеркнула, что одна из самых дорогих иллюзий — это мысль «у меня там ничего важного». Люди системно недооценивают стоимость того, чем владеют: клиентские данные, доступы, внутренний код, интеллектуальная собственность и сама репутация компании могут стоить намного больше, чем кажется в моменте.
Риск 1: ваш личный чатик не личный
Все, что человек вставляет в ChatGPT, Claude или Gemini, по умолчанию не стоит считать приватным пространством. Внутренние документы, резюме кандидатов, договоры, код с токенами доступа и другие чувствительные материалы не стоит просто копипастить напрямую в публичные модели.
Практический совет Дарьи — деперсонализировать данные перед отправкой, заменять имена и чувствительные цифры на случайные значения, а если нужно, даже просить модель обращаться к вам под другим именем. Если же речь идет о действительно чувствительных данных, единственный надежный путь — работа с моделью на собственной инфраструктуре.
Риск 2: галлюцинации — это тоже уязвимость
Дарья отдельно подчеркнула, что галлюцинации уже рассматриваются безопасниками как отдельный класс рисков. LLM — это очень быстрый и часто полезный стажер, но иногда настолько уверенный в неправильном ответе, что это превращается в проблему безопасности.
Особенно опасно это в сферах, где ошибки дорого стоят: юридические рекомендации, медицинские ответы, навигационные сценарии, принятие бизнес-решений. Во всех таких случаях результат AI должен проходить обязательную верификацию человеком.
Риск 3: Shadow AI внутри компаний
Еще одна реальность, которую бессмысленно отрицать: сотрудники уже используют внешние LLM для рабочих задач, независимо от того, разрешено это официально или нет. Поэтому, по мнению Дарьи, лучше такие процессы возглавить и контролировать, чем запрещать на бумаге и делать вид, что этого не происходит.
Риски здесь очевидны: утечки данных, неверные решения на основе галлюцинаций, передача конфиденциальных документов во внешние сервисы. Но главный риск — отсутствие управляемости, когда AI уже используется, а политики и guardrails еще не созданы.
Риск 4: агенты с широкими правами
Дарья напомнила, что AI-агент — это, по сути, стажер, которому почему-то очень часто дают права администратора. Такой агент может случайно удалить файлы и папки, выполнить вредоносную инструкцию из внешнего контента через prompt injection, открыть или скачать что-то нежелательное из почты и чатов или стать точкой входа для каскадной атаки.
Она отдельно упомянула, что OWASP уже опубликовал список ключевых уязвимостей для LLM-приложений, и prompt injection там находится на первом месте. Это делает проблему не теоретической, а уже вполне оформленной отраслевой практикой.
Риск 5: секреты в GitHub
Еще одна типовая катастрофа — когда AI быстро генерирует код, человек почти не смотрит на результат и пушит все в репозиторий. Вместе с кодом туда легко уезжают токены, API-ключи, конфиги с паролями и другие чувствительные секреты. По словам Дарьи, статистика таких утечек выглядит действительно пугающе, причем проблема касается даже приватных репозиториев.
Что делать: пять шагов безопасного вайбкодинга
- Идея и быстрый прототип — это нормально. Сам по себе вайбкодинг не запрещен и не является проблемой.
- Ревью кода обязательно. Нужно смотреть, что именно вам сгенерировали, и не работать в режиме «allow all» без разбора.
- Пишите тесты. Причем с помощью того же Claude Code — это нормально и полезно.
- Сканируйте уязвимости. SAST, DAST и другие проверки безопасности должны быть частью пайплайна, а не факультативом.
- Назначьте ответственного. У безопасности должен быть владелец, а не абстрактное ощущение, что «кто-нибудь потом посмотрит».
Про агентов: минимум прав, максимум контроля
Практический вывод Дарьи очень конкретный: не давать агентам права на выполнение консольных команд без вашего разрешения, использовать песочницы, внимательно смотреть, что именно агент пытается сделать, и всегда держать в голове, как вы откатитесь назад, если что-то пойдет не так. То есть не автоматизировать слепо, а контролировать контур исполнения.
Финальный тезис
В финале Дарья ответила на главный вопрос с характерной иронией: AI нас пока не убьет, Скайнет откладывается. Но вот секреты в публичный GitHub лучше действительно не пушить. Ее выступление в итоге оказалось не про страх, а про зрелость: использовать AI можно и нужно, но с пониманием, что безопасность — это не тормоз развития, а обязательная часть взрослого внедрения.