Собеседование на Data Engineer в MTS Cloud
Содержание:
Почему MTS Cloud — особенный работодатель для DE
MTS Cloud (бренд MWS — MTS Web Services) — облачное подразделение группы МТС: IaaS, PaaS, managed-сервисы, объектное хранилище, ML-платформа, AI-сервисы поверх инфраструктуры МТС. Cloud занимает заметную долю на рынке корпоративных клиентов и активно растёт за счёт перехода государственных и регулируемых заказчиков на отечественные облака. Для Data Engineer это специфический контекст: классические облачные DE-задачи (биллинг, телеметрия) плюс наследие телеком-аналитики (PySpark, Hive, MTS Big Data), плюс серьёзные compliance-требования для гос-облака.
Главные DE-домены: построение биллинг-DWH (расход IaaS, PaaS, AI-сервисов с точностью до минуты); pipeline телеметрии серверов и сетевого оборудования; B2B-аналитика enterprise-клиентов (включая клиентов из группы МТС — крупный сегмент); data lake для AI-сервисов; интеграция со стеком MTS Big Data (Hive, Spark, HDFS); compliance-pipeline для гос-облака (152-ФЗ, ГОСТ Р 57580); CRM-витрины; внутренняя SaaS-аналитика.
Стек: ClickHouse и Greenplum для DWH + наследие MTS Big Data (Hive, HDFS, Spark) для тяжёлых ETL; Kafka + Debezium для CDC; Airflow + dbt; data lake на S3-совместимых хранилищах; внутренние инструменты МТС для observability и compliance. Часть legacy на Informatica, мигрируется. DE-команда плотно работает с MTS AI и MTS Big Data.
Актуальные вакансии — на hh.ru и сайте МТС.
Информация основана на публичных источниках и опыте кандидатов. Команды MTS Cloud используют разные процессы — формат и этапы зависят от направления, для compliance-ролей обязательна СБ-проверка, уточняйте у рекрутера.
Этапы собеседования
Полный цикл — 4-6 недель, 5-6 этапов. Процесс корпоративный с учётом группы МТС: HR, техническое интервью, кодинг и SQL, продуктово-архитектурный кейс, поведенческое, финал. Для ролей с допусками к гос-облаку — расширенная СБ.
1. HR-скрининг (30-45 минут)
Рекрутер уточняет: production-опыт DE (от 2 лет, желательно с telco или большими объёмами), знание классического DWH и MTS Big Data стека (Hive, Spark), мотивацию идти в MTS Cloud, ожидания по компенсации и формату (Москва). Готовь питч на 90 секунд про самый зрелый production-pipeline.
2. Техническое интервью / SQL и архитектура (60-90 минут)
Базовая секция с senior DE из команды. Темы: SQL deep dive (оконные функции, рекурсивные CTE, оптимизация, partitioning, индексы, EXPLAIN, ClickHouse-специфика, HiveQL-нюансы), модели данных (звезда, снежинка, SCD типы, Data Vault), batch vs streaming, CDC (Debezium), data quality, data lineage. Специфический вопрос: «как ты бы построил pipeline для биллинга и интеграции с биллингом телеком-услуг МТС».
Подготовка: SQL для DE, Data modeling, Spark deep dive.
3. Python + SQL live coding (60-90 минут)
Задачи прагматичные: 1-2 на SQL (оконки, JOIN, оптимизация), 1-2 на Python (pandas, простые ETL, обработка событий). Часто живой кейс: «дам тебе таблицу с событиями использования сервисов корпоративных клиентов, посчитай агрегаты для биллинга». Готовиться: 30-50 SQL Medium-Hard задач + 20 простых на Python.
Подготовка: SQL для DE.
4. Продуктово-архитектурный кейс (90 минут)
Самая характерная секция. Кейс архитектурный: «спроектируй pipeline биллинга MTS Cloud с интеграцией биллинга телеком-услуг МТС», «как ты бы построил compliance-pipeline для гос-облака», «как сделать B2B-аналитику в личном кабинете клиента с учётом синергии telco + cloud». Нужно: уточнить требования (объём, SLA, compliance), описать архитектуру, выбрать стек, продумать data quality и monitoring, обсудить trade-off, заложить план рекавери. Сильный сигнал — учёт telco-наследия (PySpark, Hive) и compliance.
Подготовка: Airflow patterns, Monitoring и data quality.
5. Поведенческое + culture fit (45-60 минут)
С тимлидом или представителем направления. STAR-формат: расскажи про конфликт с заказчиком, факап в проде, длинный регулируемый проект. МТС ценит зрелость и готовность к корпоративной среде.
6. Финал с руководителем (30 минут)
Финальная встреча: грейд, оффер. Корректировки по цифрам.
Особенности по командам
Биллинг и финансовое DWH. Команда отвечает за корректность биллинга MTS Cloud и интеграцию с биллингом телеком-услуг МТС. Стек — Greenplum + Airflow + dbt + специализированные расчётные движки + интеграция с MTS Big Data. Челлендж — синергия с телеком-биллингом (cross-product offerings), точность, regulatory. Подойдёт DE с financial-DWH или telco-биллинг опытом.
Telco × Cloud DE. Уникальная команда: данные на стыке telco (сетевая телеметрия, биллинг связи) и облачных продуктов. Например, как использовать сигналы из сети для prediction churn облачных клиентов. Стек — MTS Big Data (Hive, Spark, HDFS) + современный ML-стек + ClickHouse. Подойдёт DE с серьёзным telco-фоном.
B2B-product витрины. Команда строит data products для клиентов: dashboards в личном кабинете, API для выгрузки расходов, отчёты по использованию. Стек — ClickHouse + API gateway + кастомные сервисы. Подойдёт DE с B2B SaaS-фоном.
Compliance и гос-облако. Команда занимается compliance-pipeline для регулируемых клиентов (госорганы, банки, ОПК): pipeline с audit trail, immutable logs, отчётность по 152-ФЗ и ГОСТ Р 57580. Стек — dbt + Greenplum + специализированные compliance-инструменты + WORM-хранилище. Подойдёт кандидатам с зрелым DWH-опытом и готовностью к compliance.
Internal SaaS analytics. Команда внутренних DE: churn, expansion, NPS, поддержка load prediction. Стек — Greenplum + ClickHouse + кастомные дашборды. Подойдёт кандидатам с B2B-SaaS background.
Что MTS Cloud ценит в DE
Production-опыт. История про pipeline в проде с SLA. «Запустил биллинг-pipeline для 50К корпоративных клиентов с T+1 SLA и 99.95% доступностью» — это история.
Telco / B2B контекст. Опыт в telco, банке или B2B SaaS — большой плюс. Кандидаты с чисто consumer-internet фоном (e-com, медиа) проходят, но с пониманием, что им придётся доучивать B2B-специфику и telco-стек.
MTS Big Data стек. Опыт работы с PySpark, Hive, HDFS — мощный сигнал. Часть проектов наследует этот стек, без понимания будет сложно.
Готовность к процессам. МТС — большая корпорация, регламенты и согласования есть. Кандидат, который ругает процессы вообще, рискует получить -1.
Weak vs strong на архитектурном кейсе. Слабый ответ: «возьмём Kafka и Spark Streaming для биллинга в real-time». Сильный ответ: «биллинг — это batch с reconciliation. События инференса AI-сервисов и использования IaaS собираем через Kafka в data lake (Hive/HDFS наследие как опция) → агрегация в ClickHouse для свежих агрегатов клиента → batch-pipeline в Airflow формирует счёт через dbt с обязательным reconciliation против сырых событий. Интеграция с биллингом телеком-услуг МТС — отдельный pipeline с unified-billing-моделью, но cross-product offerings требуют consistency».
Self-management. Команды компактные. DE, который теряется без чёткого ТЗ, рассматривается слабее.
Как готовиться: план
За 5-7 недель до планируемого собеса:
- Неделя 1-2 — SQL deep dive и data modeling. Оконные функции, рекурсивные CTE, оптимизация, partitioning, индексы, EXPLAIN, HiveQL-нюансы. Модели данных (звезда, снежинка, SCD типы, Data Vault). Прорешай 30 SQL Medium-Hard задач. Параллельно — на Карьернике обнови базу по SQL и Python: 1500+ задач, по 15-20 минут в день, чтобы за месяц закрыть пробелы по основным конструкциям и не путаться на простых вопросах.
- Неделя 3 — MTS Big Data стек и современный data stack. PySpark, Hive, HDFS basics, Airflow patterns, dbt, Kafka + Debezium для CDC. Если не работал — туториалы.
- Неделя 4 — Telco и B2B контекст. Прочитай блог MTS Big Data, MTS Cloud, обзоры по telco-billing и B2B-CDP. Запомни понятия: ARPU, ARPPU, churn в B2B, billing aggregation, GPU-инстанс.
- Неделя 5 — Архитектурные кейсы. Прорешай 5-6 кейсов: биллинг с telco-интеграцией, compliance для гос-облака, B2B-dashboards, telco × cloud cross-product offerings, capacity GPU. Структура — требования → источники → транспорт → процессинг → витрина → SLA → recovery. Spark deep dive.
- Неделя 6-7 — Mocks и behavioral. Mock-интервью, 5-7 STAR-историй: конфликт с заказчиком, факап в проде, длинный регулируемый проект, история про cross-product интеграцию.
Частые ошибки
Не знают Hive / PySpark. В MTS Cloud наследие MTS Big Data есть. Если кандидат не работал — нужно хотя бы понимать концепции.
Хайпуют стримингом везде. Кандидат проектирует биллинг как pure streaming. Не упоминает, что для финансовой отчётности важна reconciliation.
Не разбираются в telco-метриках. «Что такое ARPU, ARPPU, churn в telco-B2B?» — кандидат теряется.
Игнорируют compliance. В МТС с гос-облаком и регулируемыми клиентами compliance — важная часть. Кандидат, который этого не упоминает, теряет балл.
Не задают вопросы про SLA и compliance. На кейсе сразу — стек, а не «какие SLA, какой compliance, какая интеграция с telco-биллингом». Это первый фильтр.
Связанные темы
- Собеседование на Data Engineer
- Spark deep dive
- Data modeling
- Собеседование на Data Scientist в MTS Cloud
- Собеседование на Data Engineer в МТС
FAQ
Удалёнка в MTS Cloud для DE?
Гибрид с офисом в Москве (Воронцовская / Деловой центр МТС). Полная удалёнка возможна точечно для senior+ при согласовании.
Зарплатные вилки 2026?
Middle DE: 270-420k. Senior: 420-650k. Lead/Staff — выше. Годовая премия в МТС-формате. Соцпакет группы МТС.
Нужен ли английский?
Базовый — для документации. Свободного говорящего не требуется. Для AI Services с международными библиотеками — желательнее.
Сколько этапов?
5-6 этапов, 4-6 недель. Согласования замедляют процесс, особенно для высоких грейдов и ролей с допусками.
Это официальная информация?
Этапы основаны на публичных источниках и опыте кандидатов. Уточняйте у рекрутера — формат и грейды отличаются по командам.