Собеседование на AI PM в Cloud.ru

Готовься к собесу аналитика как в Duolingo
10 минут в день — SQL, Python, A/B, метрики. 1700+ вопросов в Telegram
Открыть Карьерник в Telegram

Почему Cloud.ru — особенный работодатель для AI PM

Cloud.ru — российская облачная платформа, выросшая из SberCloud, часть экосистемы Сбера. Это один из трёх лидеров рынка отечественного облака, плотно интегрирован с GigaChat, GigaCode и другими AI-продуктами Сбера. Для AI PM это значит уникальный контекст: ты работаешь с инфраструктурными продуктами для B2B (от стартапов до enterprise) и одновременно соседствуешь с одним из самых амбициозных foundation-model-проектов в РФ.

AI PM в Cloud.ru отвечает за продукты на стыке cloud, ML platform и LLM-инфраструктуры: ML Space (managed ML SaaS — Jupyter, эксперименты, деплой), GigaChat API (LLM как сервис для B2B), GigaCloud (AI-инфраструктура с GPU/TPU), foundation models hosting, Сбер-экосистемные интеграции. Главный челлендж — продавать AI-сервисы не конечному пользователю, а инженерам и data scientist-ам, у которых высокие требования к стабильности, документации и стоимости.

Стек: Kubernetes + GPU-инфра (NVIDIA, отечественные ускорители), MLflow, JupyterHub, custom-инструменты для деплоя моделей, vLLM/TGI-аналоги для serving LLM, ClickHouse и Greenplum для биллинга и аналитики, sber-specific API для интеграций.

Актуальные вакансии — на hh.ru и сайте Cloud.ru.

Информация основана на публичных источниках и опыте кандидатов. Команды Cloud.ru используют разные процессы — уточняйте у рекрутера.

Этапы собеседования

Цикл — 4-5 этапов, 2-3 недели. Финальное согласование часто требует апрува сберовского HR-менеджмента — закладывай дополнительные дни.

1. HR-скрининг (30-45 минут)

Рекрутер проверяет AI-фокус, базовое ML, опыт в cloud / B2B SaaS / dev-tools. Cloud-бэкграунд (Yandex Cloud, VK Cloud, AWS, GCP) — большой плюс. Готовь питч на 90 секунд: какие AI-фичи запускал, насколько глубоко работал с разработчиками как с целевой аудиторией.

2. AI / ML grounding (45-60 минут)

С ведущим PM или ML-лидом. Темы: ML-метрики, LLM-внутрянка (как работает serving, KV-cache, batching, quantization), особенности foundation models (что такое pretraining vs fine-tuning vs RLHF, стоимость каждого этапа), ML platform internals (что такое feature store, experiment tracking, model registry). На GigaChat-блоке спросят, чем отличается российская LLM-инфра от OpenAI с точки зрения SLA, compliance и стоимости.

Подготовка: LLM-фичи, ML для PM.

3. Product кейс с AI-фичей (90 минут)

Дают кейс «спроектируй GigaChat-интеграцию для enterprise». Жди вопросов про аудиторию (стартап на 10k запросов в день vs banking enterprise на 10М), JTBD (быстрый POC vs продакшен с SLA), UX (квота-менеджмент, биллинг, мониторинг), риски (cost burnout, latency spikes, data leakage), метрики (MAU клиентов, TPS, P95-latency, gross margin per токен), MVP (с какого тарифа стартуем, какие SLA даём на pilot). Сильные кандидаты сразу разводят «технические» и «бизнес» метрики.

Подготовка: Prompt engineering, RAG и context.

4. Metrics / experimentation (45 минут)

Эксперименты в B2B-инфра: A/B на конечных пользователей клиентов невозможны напрямую, нужно работать с feature-flags на уровне API. Спросят, как мерить эффект новой модели на клиентскую конверсию retention. Готовь evaluation для LLM: gold benchmarks (MMLU, MERA), online proxy на токенах биллинга, NPS клиентов.

Подготовка: AI-метрики и evaluation.

5. Поведенческое (45 минут)

STAR с тимлидом. Истории про конфликт с infra-командой, факап с downtime, спор с клиентом про SLA. В Сбер-экосистеме много стейкхолдеров — проверяют, как ты работаешь в матричной структуре.

Особенности по командам

ML Space. Managed ML SaaS: Jupyter, эксперимент-трекинг, AutoML, деплой моделей в Kubernetes. Целевая аудитория — data scientists. Подойдёт PM с опытом в dev-tools или ML-инфра.

GigaChat API. LLM как сервис: API, SDK, biling, фильтры безопасности, fine-tuning, RAG-сервисы поверх. Самая «горячая» команда. Подойдёт PM с любовью к LLM и пониманием API-продуктов.

GigaCloud. AI-инфраструктура: GPU-инстансы, K8s-кластеры с ускорителями, distributed training. Целевая аудитория — ML-инженеры и enterprise-DS-команды. Подойдёт PM с background в infra/dev-tools.

Foundation models. Хостинг open-source моделей (Qwen, Llama, отечественные модели) с серви-режимом. Тесно работает с Сбер-исследовательской командой. Подойдёт PM с интересом к R&D и open-source.

Ecosystem AI. Интеграции с Сбер-продуктами (СберМаркет, СберБанк, Зарплата.ру). Часть фич для внутреннего использования, часть для партнёров. Подойдёт PM с интересом к ecosystem-партнёрствам.

Что Cloud.ru ценит в AI PM

AI понимание. Слабый: «возьмём LLM». Сильный: «для batch-инференса — vLLM с continuous batching, для low-latency — quantized в 4-bit с speculative decoding; стоимость и латенси отличаются в 6 раз».

GigaChat / LLM-инфра. Знание архитектуры serving (KV-cache, batching, attention optimization), стоимости токенов, fine-tuning. Слабый: «GigaChat как OpenAI». Сильный приходит с пониманием SLA и compliance в РФ.

Cloud / B2B SaaS context. Знание API-продуктов, биллинга, SLA, customer success в B2B. Слабый: «сделаем фичу». Сильный: «биллинг по токенам с тiеред-pricing, SLA P99 200ms, для enterprise — premium support и dedicated capacity».

Business metrics. Не «accuracy», а MRR клиентов, gross margin per токен, retention API-клиентов, TTV новых интеграций. Связывай AI с бизнес-моделью SaaS.

Cross-team. Инфра, ML-исследователи, sales, customer success, Сбер-партнёры. Проверяется на behavioral.

Готовься к собесу аналитика как в Duolingo
10 минут в день — SQL, Python, A/B, метрики. 1700+ вопросов в Telegram
Открыть Карьерник в Telegram

Как готовиться: план

За 4-6 недель до планируемого собеса:

  1. Неделя 1 — ML базовые + cloud primer. Метрики ML, базовое понимание K8s, GPU vs CPU инстансы. ML для PM.
  2. Неделя 2 — LLM глубже. Архитектура Transformer, serving, batching, quantization. Параллельно — прорешай вопросы по Python, ML и SQL в Карьернике: 1500+ задач с разбивкой по темам, по 10-15 минут в день закрывают пробелы перед собесом. LLM-фичи.
  3. Неделя 3 — Prompt + RAG. RAG-инфра как продукт. Prompt engineering, RAG.
  4. Неделя 4 — Cost / latency. Считай TCO для разных моделей и нагрузок, продумай tiered routing. AI cost и latency.
  5. Неделя 5 — Mocks + behavioral. Mock-кейс по cloud-AI-продукту.
  6. Неделя 6 — Polish. Перечитай документацию GigaChat и Cloud.ru, погугли новости Сбер AI Lab.

Частые ошибки

«Добавим chatbot» без бизнес-кейса. Слабо: «GigaChat будет лучше OpenAI». Сильно: «для enterprise в РФ — compliance с 152-ФЗ, no-cross-border data; GigaChat закрывает это, плюс цена в рублях, плюс SLA — ROI 2x против использования зарубежных моделей через прокси».

Игнор cost / latency. Слабый: «возьмём самую большую модель». Сильный: «для 80% запросов — quantized 7B, для сложных — 70B; стоимость снижается в 8 раз без падения качества на основной нагрузке».

Без cloud / SaaS. Кандидат не знает, что такое биллинг по подписке vs pay-per-use, не различает PaaS vs SaaS — это сразу видно.

Без LLM-инфра. Слабо: «GigaChat работает». Сильно: «vLLM с continuous batching даёт 5x throughput vs naive serving; speculative decoding ещё минус 30% латенси».

AI metrics only. Слабо: bleu/rouge. Сильно: MRR клиентов API, retention 90-day, gross margin per токен в копейках.

Связанные темы

FAQ

Удалёнка в Cloud.ru для AI PM?

Гибрид распространён, полная удалёнка обсуждаема для senior+. Часть встреч в Сбер-структурах требует очного присутствия.

Зарплатные вилки 2026?

Middle AI PM: 440-620k. Senior: 620-900k. Сбер-экосистема платит выше рынка.

Английский нужен?

Базовый — желательно для чтения research-статей. Свободный — плюс для участия в международных конференциях.

Сколько этапов?

4-5 этапов, 2-3 недели от первого скрининга до оффера. Может затянуться из-за сберовских согласований.

Это официальная информация?

Этапы основаны на публичных источниках и опыте кандидатов. Уточняйте у рекрутера — команды и грейды могут менять процесс.