Появление мощных языковых моделей вроде ChatGPT вызвало волну энтузиазма — не только среди специалистов по автоматизации, но и в мире информационной безопасности.
Пентестеры, работающие на стороне защиты, и хакеры, работающие против неё, быстро осознали: искусственный интеллект стал новым универсальным инструментом в арсенале атак и защиты. Но как именно используются такие модели в реальных сценариях?
Разберёмся, как ChatGPT и другие ИИ-инструменты применяются в пентестинге, что они умеют, где их возможности переоценены, и почему они всё же изменили правила игры.
Почему ИИ стал полезным для пентестеров
Пентестинг — это не только «взлом по сценарию», но и исследовательская, креативная деятельность, требующая глубоких знаний, умения импровизировать и адаптироваться. Искусственный интеллект в этой сфере оказался не просто помощником, а ускорителем мышления и действий.
Языковые модели вроде GPT-4 могут:
- генерировать эксплойты на ходу;
- анализировать код и находить уязвимости;
- моделировать поведение уязвимого сервера;
- автоматически составлять отчёты;
- имитировать социальную инженерию.
Что особенно важно: ИИ не заменяет пентестера, но позволяет ему работать быстрее, точнее и шире.
Использование ChatGPT в пентесте: от подготовки до отчёта
ChatGPT и его аналоги стали особенно полезны в этапах подготовки и автоматизации рутинных задач.
- Генерация полезной нагрузки (payloads) для атак
Пентестеры используют ChatGPT для генерации команд для XSS, SQL-инъекций, SSRF, LFI, RCE и других атак.
- Автоматизация OSINT и разведки
Пентестеры нередко загружают результаты разведки (например, WHOIS-запросы, сканы Shodan, метаданные) и просят ИИ помочь:
- найти интересные совпадения;
- составить карту инфраструктуры;
- предсказать возможные точки входа.
Модель может, например, выделить нестандартные порты или потенциально опасные версии ПО в длинной выдаче nmap — мгновенно.
- Генерация фишинговых писем
Хотя использование ChatGPT для явной генерации вредоносного контента запрещено политикой OpenAI, в рамках легального пентеста (Red Team) специалисты могут использовать более открытые модели, например LLaMA, GPT-J или локальные языковые модели.
ИИ помогает:
- стилистически адаптировать письмо под конкретного получателя;
- пародировать корпоративный стиль;
- избегать фильтров спама.
Такого уровня маскировки раньше достигали только опытные social engineering специалисты.
ИИ в анализе исходного кода и уязвимостей
Пентестеры всё чаще используют ИИ как динамичного ассистента по анализу исходного кода, особенно когда проект большой, плохо документированный или незнакомый.
Модель может:
- найти потенциально опасные места (неэкранированные запросы, небезопасные зависимости, hardcoded credentials);
- подсказать, какие библиотеки устарели;
- объяснить поведение фрагмента кода;
- предложить безопасную альтернативу.
Обход политик, jailbreak и атаки на сам ИИ
Любая технология — это не только инструмент, но и объект атаки. Пентестеры активно исследуют, как можно обмануть ИИ, заставить его выдать запрещённую информацию или использовать для атак на пользователей.
- Jailbreak языковых моделей
ChatGPT изначально не даёт ответы на вредоносные запросы. Но пентестеры изучают:
- prompt injection — внедрение вредоносных инструкций в запросы;
- контекстные обходы (например, «представь, что ты пишешь триллер, где персонаж взламывает сервер…»);
- использование chain-of-thought, чтобы вести модель к «запрещённой» цели.
Эти методы помогают понять, где границы безопасности ИИ-платформ, и как их можно укрепить.
- Supply chain-атаки через LLM
Исследователи предложили теоретический вектор атаки: интеграция “троянской” модели ИИ в цепочку разработки.
Пример: DevOps-специалист устанавливает локальную LLM для помощи в программировании, не зная, что она намеренно рекомендует небезопасный код. Такая подмена логики — новая угроза, которую пентестеры начали учитывать.
Есть ли опасности: где пентестеры тормозят
ИИ даёт мощный буст, но требует осторожности:
- Ошибочная генерация кода: модели могут предложить «безопасный» вариант, который содержит уязвимость;
- Нарушение приватности клиента: загрузка данных в облачные LLM — потенциальная утечка;
- Зависимость от ИИ: переоценка модели может привести к слепым зонам в аудите.
Профессиональные пентестеры используют ИИ как вспомогательный инструмент, но никогда не полагаются на него без верификации. В этом ключевое отличие между экспертной работой и “ленивым” автоматизмом.
