Senior InfoSec Engineer · LLMOps

Артём Борисов
Строю AI-системы для кибербезопасности

4+ года в информационной безопасности. Разрабатываю LLM-инструменты для SOC: RAG-агенты нормализации логов, генераторы рекомендаций, production-инфраструктуру vLLM/LiteLLM/MLflow.

01 / О себе

О себе

Senior Information Security Engineer в R-Vision (с октября 2023), Technical Expertise Department — AI/ML-инструменты для кибербезопасности.

Основное направление — разработка LLM-приложений для SOC: VRL Normalization Agent (RAG на Claude Sonnet + ChromaDB/Qdrant для нормализации SIEM-логов), документационные чат-боты, агенты объяснения логов, генераторы рекомендаций по инцидентам.

Параллельно занимаюсь инфраструктурой: Kubernetes, ClickHouse, PostgreSQL, Docker, SIEM/SOAR-платформы (R-Vision, QRadar). Москва.

4+
года в ИБ
25K+
EPS в prod
10K+
сущностей в RAG
12
этапов AI-пайплайна
02 / Проекты

Проекты

Переключайтесь между ролями, чтобы увидеть релевантные проекты

2024—2025vrl-agent

VRL Normalization Agent

AI-платформа для автоматической генерации правил нормализации событий для R-Vision SIEM. Принимает сырые логи (syslog, CEF, JSON, kv) и с помощью LLM + RAG выдаёт готовые VRL-правила с многоэтапной валидацией.

Что сделано
  • 12-этапный пайплайн: дедупликация → автоопределение формата → RAG-поиск похожих правил → генерация VRL (normalizer + filter) → итеративный рефайн → тесты → YAML.
  • Best-of-N sampling с варьированием temperature и выбором лучшего варианта по числу ошибок.
  • ReAct-чат с tool calling, SSE-стриминг прогресса генерации в реальном времени.
  • Кэширование LLM-ответов (pickle + TTL), async-first архитектура (asyncpg, aiohttp).
  • Quality Validation — LLM оценивает семантическую корректность сгенерированного правила.
  • ~64 Python-модуля backend, ~23 TS-компонента frontend, 5 Docker-сервисов.
Стек
PythonFastAPIPostgreSQLClaude Sonnet 4.5OpenRouterRAG / 3SReactTypeScriptViteDockerJWT
Скриншоты
2024—20253s

3S — Soft Search Service

Семантический поисковый сервис для документов и структурированных данных с поддержкой RAG-сценариев, гибридного поиска и больших коллекций (10 000+ сущностей).

Что сделано
  • Per-field named vectors — каждое content-поле векторизуется отдельно и сохраняется в свой named vector в Qdrant.
  • Entity Similarity с взвешенным скорингом: avg_score * (1 + 0.1 * match_count) — бонус за совпадение по нескольким полям.
  • Двухфазный metadata-first алгоритм для обхода limit в больших коллекциях: scroll_all + vector search с MatchAny.
  • 3 режима поиска — vector / bm25 / hybrid (RRF), реранкинг через flashrank, фильтры с AND/OR.
  • Мультимодальность: PDF/DOCX/PPTX + OCR изображений (BLIP / Florence-2) для описаний.
  • JWT + персональные API-токены, изолированные пространства (multitenancy), 57 задокументированных эндпоинтов.
Стек
FastAPISQLAlchemy 2.0asyncpgCelery + RedisQdrantMinIOfastembed (e5-large)flashrankReact 18TypeScriptTailwindDocker Compose
Скриншоты
2025vllm-infra

On-premise LLM-инфраструктура

vLLM + Qwen3 / Qwen3.5 MoE на RTX 6000 Ada, LiteLLM proxy как единая точка входа, MLflow Prompt Registry, архитектура сегментации dev/prod.

Что сделано
  • Развёрнут vLLM с Qwen3.5-35B-A3B-GPTQ-Int4: awq_marlin-квантизация, fp8 KV-cache, prefix caching, chunked prefill, tool calling (hermes parser), 24K контекст.
  • Апгрейд vLLM до 0.17.1 для поддержки Qwen3.5 MoE.
  • Production-стек LiteLLM proxy (PostgreSQL 16 + Redis 7 в Docker) — единая точка входа для всех LLM-вызовов из prod-сервисов.
  • MLflow на CentOS 9 с MinIO artifact store: Prompt Registry, Dataset tracking, AI Gateway.
  • Архитектурное планирование сегментации dev/prod: расчёт ТТХ серверов, схема именования, миграция VM, межсегментные потоки, сетевые и серверные схемы.
Стек
vLLMQwen3 / Qwen3.5 MoELiteLLMPostgreSQL 16Redis 7MLflowMinIODockerNVIDIA CUDACentOS 9
2024lecture

Лекция «AI в кибербезопасности»

Выступление перед студентами профильного вуза о применении LLM и ML в задачах ИБ — популяризация направления и работа с будущими кандидатами.

Что сделано
  • Автоматизация SOC с помощью LLM: где работает, где нет.
  • RAG-агенты для нормализации логов SIEM на примере собственного VRL Normalization Agent.
  • Генерация рекомендаций по инцидентам, объяснение логов.
  • Ограничения и риски использования LLM в защищённом контуре — изоляция, аудит, prompt injection.
Стек
LLMRAGSIEMSOC automation
03 / Контакты

Контакты

Открыт к обсуждению интересных задач и сотрудничества.