Собеседование на ML Engineer в Selectel
Содержание:
Почему Selectel — особенный работодатель для MLE
Selectel — крупный независимый российский cloud-провайдер, известный dedicated-серверами, public и private cloud, managed K8s и GPU-инфраструктурой для AI-нагрузок. В отличие от cloud-провайдеров-наследников экосистем (Yandex Cloud, VK Cloud, Cloud.ru), Selectel — самостоятельный B2B-бизнес на облачной инфраструктуре. Активно растёт в направлении AI и ML-сервисов после появления спроса на GPU-инстансы в России. Для ML-инженера это работа на стыке cloud-инфраструктуры и продуктового ML.
ML-системы и продукты: ML Platform (managed-сервисы для ML — Jupyter, training, serving), foundation models hosting (предобученные LLM и embedding-модели), AutoML, distributed training поддержка (multi-GPU/multi-node), model serving inference platform.
Стек: Python + PyTorch + Catboost для табличных задач + K8s для deployment + Go для части инфраструктурного backend + ClickHouse + MLflow + Kubeflow для оркестрации ML-пайплайнов.
Актуальные вакансии — на hh.ru и сайте Selectel.
Информация основана на публичных источниках и опыте кандидатов. Команды Selectel используют разные процессы — уточняйте у рекрутера.
Этапы собеседования
Цикл занимает 3-4 недели и включает 5-6 этапов. Selectel — серьёзная cloud-компания. Упор на distributed systems, MLOps и cloud-инфраструктуру.
1. HR-скрининг (30-45 минут)
Рекрутер проверяет фон: production-опыт ML на cloud-уровне, cloud / distributed / MLOps background — большой плюс.
2. ML-теория (60-90 минут)
Базовая секция. Темы: классические бустинги (CatBoost), deep learning, distributed training (DDP, FSDP, DeepSpeed), model serving (batching, quantization).
Подготовка: ML-теория.
3. Python live coding (60 минут)
Live-кодинг: алгоритмы (LeetCode Medium), ML pipeline — distributed-aware training loop, профайлинг GPU. Готовиться по LeetCode минимум 3-4 недели.
Подготовка: Python для DS.
4. ML System Design (90 минут)
Кейсы: «ML Platform pipeline с auto-scaling», «model serving в облаке с multi-tenancy», «distributed training с FSDP». Уточнить бизнес-метрику (throughput, latency, cost), описать архитектуру.
Подготовка: MLOps, Model serving, Feature stores.
5. Production / scale (60 минут)
K8s deployment (operators), мониторинг GPU-кластеров, capacity planning. Кейсы про инциденты на GPU, OOM в large model training, hot-spotting в multi-tenant.
Подготовка: Monitoring drift, Deployment strategies.
6. Поведенческое (45 минут)
С тимлидом. STAR-формат. Selectel ценит инженерную аккуратность.
Особенности по командам
ML Platform. Managed ML-платформа для клиентов: notebooks, training jobs, model serving. Подойдёт MLE с MLOps background.
GPU infra. GPU-кластеры, training, inference. Низкоуровневая работа: A100/H100, NVLink, networking. Подойдёт тем, у кого есть hardware-background.
Cloud Compute. Общая cloud-инфра. ML-инженеры могут работать на product-side: recommendation сервисов, авто-скейлинг.
MK8s. Managed K8s — большое направление. ML-инженеры могут работать через operators для ML-нагрузок.
Storage. S3-like storage, специфичные ML-storage-сервисы.
Что Selectel ценит в MLE
Production ML на cloud-уровне. Слабый — «делал на Kaggle»; сильный — «развернул inference-сервис для LLM на 100 RPS, latency p99 < 500ms».
Cloud / distributed. Опыт с distributed training, multi-GPU.
MLOps fluency. Train-serving skew, feature stores, model registry.
K8s. Не просто deploy, но operators, controllers.
PyTorch / Catboost / Python. Стандарт.
Как готовиться: план
За 6-8 недель до собеседования:
- Неделя 1-2 — Python + ML + distributed. LeetCode Medium 30+ задач, distributed training, GPU. Параллельно прорешай вопросы по Python, ML и SQL в Карьернике: 1500+ задач с разбивкой по темам, по 10-15 минут в день закрывают пробелы перед собесом. Python для DS, ML-теория.
- Неделя 3 — K8s + Cloud. K8s operators, CRDs.
- Неделя 4 — MLOps + feature stores. MLOps, Feature stores.
- Неделя 5 — System design + cloud ML. Кейсы ML Platform, serving, distributed. Model serving.
- Неделя 6 — Monitoring + deployment. Monitoring drift.
- Неделя 7-8 — Mocks + behavioral. Mock-интервью, 5-7 STAR-историй.
Частые ошибки
Без cloud / distributed. Кандидат говорит «работал в local Docker» — слабо.
Без MLOps. Без понимания ML lifecycle на масштабе — слабо.
Без K8s. «Деплоил через docker-compose» — слабо.
Только notebook. Кандидаты с Jupyter-only валятся.
Без production опыта. «У нас была модель» — не история.
Связанные темы
- Собеседование на ML Engineer
- MLOps
- Feature stores
- Model serving
- Monitoring и drift
- Deployment strategies
FAQ
Удалёнка в Selectel для MLE?
Гибрид и удалёнка распространены. Офисы — в Москве и Санкт-Петербурге.
Зарплатные вилки 2026?
Middle MLE: 310-450k. Senior: 450-680k.
Английский нужен?
Базовый — желательно.
Сколько этапов?
5-6 этапов, 3-4 недели.
Это официальная информация?
Этапы основаны на публичных источниках и опыте кандидатов. Уточняйте у рекрутера.