Собеседование на AI PM в Cloud.ru
Содержание:
Почему Cloud.ru — особенный работодатель для AI PM
Cloud.ru — российская облачная платформа, выросшая из SberCloud, часть экосистемы Сбера. Это один из трёх лидеров рынка отечественного облака, плотно интегрирован с GigaChat, GigaCode и другими AI-продуктами Сбера. Для AI PM это значит уникальный контекст: ты работаешь с инфраструктурными продуктами для B2B (от стартапов до enterprise) и одновременно соседствуешь с одним из самых амбициозных foundation-model-проектов в РФ.
AI PM в Cloud.ru отвечает за продукты на стыке cloud, ML platform и LLM-инфраструктуры: ML Space (managed ML SaaS — Jupyter, эксперименты, деплой), GigaChat API (LLM как сервис для B2B), GigaCloud (AI-инфраструктура с GPU/TPU), foundation models hosting, Сбер-экосистемные интеграции. Главный челлендж — продавать AI-сервисы не конечному пользователю, а инженерам и data scientist-ам, у которых высокие требования к стабильности, документации и стоимости.
Стек: Kubernetes + GPU-инфра (NVIDIA, отечественные ускорители), MLflow, JupyterHub, custom-инструменты для деплоя моделей, vLLM/TGI-аналоги для serving LLM, ClickHouse и Greenplum для биллинга и аналитики, sber-specific API для интеграций.
Актуальные вакансии — на hh.ru и сайте Cloud.ru.
Информация основана на публичных источниках и опыте кандидатов. Команды Cloud.ru используют разные процессы — уточняйте у рекрутера.
Этапы собеседования
Цикл — 4-5 этапов, 2-3 недели. Финальное согласование часто требует апрува сберовского HR-менеджмента — закладывай дополнительные дни.
1. HR-скрининг (30-45 минут)
Рекрутер проверяет AI-фокус, базовое ML, опыт в cloud / B2B SaaS / dev-tools. Cloud-бэкграунд (Yandex Cloud, VK Cloud, AWS, GCP) — большой плюс. Готовь питч на 90 секунд: какие AI-фичи запускал, насколько глубоко работал с разработчиками как с целевой аудиторией.
2. AI / ML grounding (45-60 минут)
С ведущим PM или ML-лидом. Темы: ML-метрики, LLM-внутрянка (как работает serving, KV-cache, batching, quantization), особенности foundation models (что такое pretraining vs fine-tuning vs RLHF, стоимость каждого этапа), ML platform internals (что такое feature store, experiment tracking, model registry). На GigaChat-блоке спросят, чем отличается российская LLM-инфра от OpenAI с точки зрения SLA, compliance и стоимости.
Подготовка: LLM-фичи, ML для PM.
3. Product кейс с AI-фичей (90 минут)
Дают кейс «спроектируй GigaChat-интеграцию для enterprise». Жди вопросов про аудиторию (стартап на 10k запросов в день vs banking enterprise на 10М), JTBD (быстрый POC vs продакшен с SLA), UX (квота-менеджмент, биллинг, мониторинг), риски (cost burnout, latency spikes, data leakage), метрики (MAU клиентов, TPS, P95-latency, gross margin per токен), MVP (с какого тарифа стартуем, какие SLA даём на pilot). Сильные кандидаты сразу разводят «технические» и «бизнес» метрики.
Подготовка: Prompt engineering, RAG и context.
4. Metrics / experimentation (45 минут)
Эксперименты в B2B-инфра: A/B на конечных пользователей клиентов невозможны напрямую, нужно работать с feature-flags на уровне API. Спросят, как мерить эффект новой модели на клиентскую конверсию retention. Готовь evaluation для LLM: gold benchmarks (MMLU, MERA), online proxy на токенах биллинга, NPS клиентов.
Подготовка: AI-метрики и evaluation.
5. Поведенческое (45 минут)
STAR с тимлидом. Истории про конфликт с infra-командой, факап с downtime, спор с клиентом про SLA. В Сбер-экосистеме много стейкхолдеров — проверяют, как ты работаешь в матричной структуре.
Особенности по командам
ML Space. Managed ML SaaS: Jupyter, эксперимент-трекинг, AutoML, деплой моделей в Kubernetes. Целевая аудитория — data scientists. Подойдёт PM с опытом в dev-tools или ML-инфра.
GigaChat API. LLM как сервис: API, SDK, biling, фильтры безопасности, fine-tuning, RAG-сервисы поверх. Самая «горячая» команда. Подойдёт PM с любовью к LLM и пониманием API-продуктов.
GigaCloud. AI-инфраструктура: GPU-инстансы, K8s-кластеры с ускорителями, distributed training. Целевая аудитория — ML-инженеры и enterprise-DS-команды. Подойдёт PM с background в infra/dev-tools.
Foundation models. Хостинг open-source моделей (Qwen, Llama, отечественные модели) с серви-режимом. Тесно работает с Сбер-исследовательской командой. Подойдёт PM с интересом к R&D и open-source.
Ecosystem AI. Интеграции с Сбер-продуктами (СберМаркет, СберБанк, Зарплата.ру). Часть фич для внутреннего использования, часть для партнёров. Подойдёт PM с интересом к ecosystem-партнёрствам.
Что Cloud.ru ценит в AI PM
AI понимание. Слабый: «возьмём LLM». Сильный: «для batch-инференса — vLLM с continuous batching, для low-latency — quantized в 4-bit с speculative decoding; стоимость и латенси отличаются в 6 раз».
GigaChat / LLM-инфра. Знание архитектуры serving (KV-cache, batching, attention optimization), стоимости токенов, fine-tuning. Слабый: «GigaChat как OpenAI». Сильный приходит с пониманием SLA и compliance в РФ.
Cloud / B2B SaaS context. Знание API-продуктов, биллинга, SLA, customer success в B2B. Слабый: «сделаем фичу». Сильный: «биллинг по токенам с тiеред-pricing, SLA P99 200ms, для enterprise — premium support и dedicated capacity».
Business metrics. Не «accuracy», а MRR клиентов, gross margin per токен, retention API-клиентов, TTV новых интеграций. Связывай AI с бизнес-моделью SaaS.
Cross-team. Инфра, ML-исследователи, sales, customer success, Сбер-партнёры. Проверяется на behavioral.
Как готовиться: план
За 4-6 недель до планируемого собеса:
- Неделя 1 — ML базовые + cloud primer. Метрики ML, базовое понимание K8s, GPU vs CPU инстансы. ML для PM.
- Неделя 2 — LLM глубже. Архитектура Transformer, serving, batching, quantization. Параллельно — прорешай вопросы по Python, ML и SQL в Карьернике: 1500+ задач с разбивкой по темам, по 10-15 минут в день закрывают пробелы перед собесом. LLM-фичи.
- Неделя 3 — Prompt + RAG. RAG-инфра как продукт. Prompt engineering, RAG.
- Неделя 4 — Cost / latency. Считай TCO для разных моделей и нагрузок, продумай tiered routing. AI cost и latency.
- Неделя 5 — Mocks + behavioral. Mock-кейс по cloud-AI-продукту.
- Неделя 6 — Polish. Перечитай документацию GigaChat и Cloud.ru, погугли новости Сбер AI Lab.
Частые ошибки
«Добавим chatbot» без бизнес-кейса. Слабо: «GigaChat будет лучше OpenAI». Сильно: «для enterprise в РФ — compliance с 152-ФЗ, no-cross-border data; GigaChat закрывает это, плюс цена в рублях, плюс SLA — ROI 2x против использования зарубежных моделей через прокси».
Игнор cost / latency. Слабый: «возьмём самую большую модель». Сильный: «для 80% запросов — quantized 7B, для сложных — 70B; стоимость снижается в 8 раз без падения качества на основной нагрузке».
Без cloud / SaaS. Кандидат не знает, что такое биллинг по подписке vs pay-per-use, не различает PaaS vs SaaS — это сразу видно.
Без LLM-инфра. Слабо: «GigaChat работает». Сильно: «vLLM с continuous batching даёт 5x throughput vs naive serving; speculative decoding ещё минус 30% латенси».
AI metrics only. Слабо: bleu/rouge. Сильно: MRR клиентов API, retention 90-day, gross margin per токен в копейках.
Связанные темы
- Собеседование на AI PM
- LLM-фичи в продукте
- Prompt engineering
- RAG и context
- AI-метрики и evaluation
- AI cost и latency
FAQ
Удалёнка в Cloud.ru для AI PM?
Гибрид распространён, полная удалёнка обсуждаема для senior+. Часть встреч в Сбер-структурах требует очного присутствия.
Зарплатные вилки 2026?
Middle AI PM: 440-620k. Senior: 620-900k. Сбер-экосистема платит выше рынка.
Английский нужен?
Базовый — желательно для чтения research-статей. Свободный — плюс для участия в международных конференциях.
Сколько этапов?
4-5 этапов, 2-3 недели от первого скрининга до оффера. Может затянуться из-за сберовских согласований.
Это официальная информация?
Этапы основаны на публичных источниках и опыте кандидатов. Уточняйте у рекрутера — команды и грейды могут менять процесс.