Собеседование на AI PM в Selectel
Содержание:
Почему Selectel — особенный работодатель для AI PM
Selectel — один из крупнейших независимых российских cloud-провайдеров. В отличие от Yandex Cloud, VK Cloud или Cloud.ru, Selectel не часть экосистемы и не строит свои foundation models, а фокусируется на инфраструктуре: dedicated серверы, GPU-инстансы, ML Platform, managed services. Аудитория — AI-стартапы, ML-команды enterprise, разработчики, которым нужна гибкая GPU-инфраструктура без vendor lock-in.
AI PM в Selectel отвечает за продукты на стыке cloud и ML-инфраструктуры: ML Platform (managed Jupyter, experiment tracking, model registry), GPU-инстансы (H100/A100/L40S/RTX-семейство), AutoML, hosting open-source моделей с pre-configured serving, billing и self-service для AI-нагрузок. Главный челлендж — продаёшь продукт инженерам, у которых высокая планка к стабильности, документации и стоимости; нет «маркетинговых» преимуществ — только техническая ценность.
Стек: Kubernetes, GPU-инфраструктура (NVIDIA + альтернативы), vLLM/TGI-аналоги для serving, MLflow, JupyterHub, custom-инструменты для биллинга и квот, ClickHouse для telemetry, мощный API для self-service.
Актуальные вакансии — на hh.ru и сайте Selectel.
Информация основана на публичных источниках и опыте кандидатов. Команды Selectel используют разные процессы — уточняйте у рекрутера.
Этапы собеседования
Цикл — 4-5 этапов, 2-3 недели.
1. HR-скрининг (30-45 минут)
Рекрутер проверяет AI-фокус, базовое ML, опыт в cloud/dev-tools. Любой experience с cloud-инфраструктурой (AWS, GCP, Yandex Cloud, VK Cloud) — большой плюс. Готовь питч на 90 секунд: какие AI-фичи запускал, насколько глубоко понимаешь нужды инженеров как пользователей.
2. AI / ML grounding (45-60 минут)
С ведущим PM или ML-лидом. Темы: основы ML, GPU-внутрянка (NVLink, FP16/INT8 quantization), LLM serving (vLLM, batching, KV-cache), ML platform internals (feature store, experiment tracking).
Подготовка: LLM-фичи, ML для PM.
3. Product кейс с AI-фичей (90 минут)
Дают кейс «спроектируй ML Platform для AI-стартапа». Жди вопросов про аудиторию (3-5 ML-инженеров vs 50-инженерный team), JTBD (быстрый POC vs production с SLA), UX (биллинг, мониторинг, alert), риски (cost burnout, GPU shortage), метрики (MAU клиентов, gross margin per инстанс), MVP. Сильные кандидаты сразу видят, что в B2B-инфра retention клиентов важнее acquisition.
Подготовка: Prompt engineering, RAG и context.
4. Metrics / experimentation (45 минут)
Эксперименты в B2B-cloud: A/B на конечных пользователей сложен, нужно работать с feature-flags и cohort-метриками.
Подготовка: AI-метрики и evaluation.
5. Поведенческое (45 минут)
STAR. Истории про конфликт с инфра-командой, факап с downtime, спор с клиентом про SLA.
Особенности по командам
ML Platform. Jupyter, эксперимент-трекинг, AutoML, деплой моделей. Целевая аудитория — data scientists. Подойдёт PM с dev-tools background.
GPU Infrastructure. Целевая аудитория — ML-инженеры. Подойдёт PM с инфра-/devops опытом.
Foundation models hosting. Хостинг open-source моделей с pre-configured serving. Подойдёт PM с интересом к LLM-инференсу.
AutoML. Автоматизация для не-ML-инженеров. Подойдёт PM с интересом к no-code.
Billing / Self-service. Биллинг по pay-per-use, квоты, alerts. Подойдёт PM с pricing/monetization фокусом.
Что Selectel ценит в AI PM
AI понимание. Слабый: «возьмём LLM». Сильный: «для batch-инференса — vLLM с continuous batching; для low-latency — quantized 4-bit с speculative decoding; стоимость отличается в 6 раз».
Cloud / B2B SaaS context. Знание API-продуктов, биллинга, SLA. Слабый: «сделаем фичу». Сильный: «биллинг по GPU-часам с пиковым тариф, SLA P99 200ms».
GPU / LLM-инфра fluency. Серьёзный плюс. Слабый: «GPU как CPU». Сильный приходит с пониманием NVLink, FP precision, batching.
Business metrics. Не «accuracy», а MRR клиентов, gross margin per инстанс, retention API-клиентов.
Cross-team. Инфра, ML-команды, sales, customer success.
Как готовиться: план
За 4-6 недель до планируемого собеса:
- Неделя 1 — ML базовые + cloud primer. ML для PM.
- Неделя 2 — LLM глубже. Архитектура, serving. Параллельно — прорешай вопросы по Python, ML и SQL в Карьернике: 1500+ задач с разбивкой по темам, по 10-15 минут в день закрывают пробелы перед собесом. LLM-фичи.
- Неделя 3 — Prompt + RAG. Prompt engineering, RAG.
- Неделя 4 — Cost / latency. TCO для разных моделей. AI cost и latency.
- Неделя 5 — Mocks + behavioral. Mock cloud-AI-кейс.
- Неделя 6 — Polish. Перечитай документацию Selectel, новости.
Частые ошибки
«Добавим chatbot» без бизнес-кейса. Слабо: «AI-бот». Сильно: «у клиентов нужда в быстром POC; ML Platform сокращает setup с 2 недель до 2 часов, retention клиентов 95%».
Игнор cost / latency. Слабый: «возьмём H100». Сильный: «для tier-1 — H100, для tier-2 — L40S; цена/perf отличается, гибкость для клиента».
Без cloud / SaaS. Кандидат не знает биллинг/SLA — провал.
Без LLM-инфра. Слабый: «возьмём API». Сильный: «vLLM, continuous batching, KV-cache».
AI metrics only. Слабо: bleu. Сильно: MRR, gross margin, retention.
Связанные темы
- Собеседование на AI PM
- LLM-фичи в продукте
- Prompt engineering
- RAG и context
- AI-метрики и evaluation
- AI cost и latency
FAQ
Удалёнка в Selectel для AI PM?
Гибрид и удалёнка распространены. Офис — Санкт-Петербург.
Зарплатные вилки 2026?
Middle AI PM: 380-540k. Senior: 540-790k.
Английский нужен?
Базовый — желательно для чтения research-статей.
Сколько этапов?
4-5 этапов, 2-3 недели.
Это официальная информация?
Этапы основаны на публичных источниках и опыте кандидатов. Уточняйте у рекрутера — команды и грейды могут менять процесс.