Собеседование на Data Engineer в ЕВРАЗ: этапы, IoT, ETL, ClickHouse

Готовься к собесу аналитика как в Duolingo
10 минут в день — SQL, Python, A/B, метрики. 1700+ вопросов в Telegram
Открыть Карьерник в Telegram

ЕВРАЗ — крупный российский металлургический и горнодобывающий холдинг с активами в стальном производстве, угольной промышленности и ванадиевом бизнесе. Data Engineer в ЕВРАЗ — это специалист, который работает с разнородными источниками данных: сенсорные потоки с прокатных станов, шахтные системы мониторинга, лабораторные анализы, ERP-данные, коммерческие витрины. Эта статья собрана из публичных описаний вакансий, отзывов кандидатов и общих практик найма в промышленных компаниях — её цель помочь подготовиться, а не пересказать внутренние документы.

Почему ЕВРАЗ — особенный работодатель {#pochemu-evraz-osobennyy-rabotodatel}

ЕВРАЗ — это компания с очень широким технологическим охватом. В одном холдинге — металлургические комбинаты, угольные предприятия, ванадиевые активы, рудники. Для DE это означает доступ к разнообразным данным: от высокочастотных сенсорных потоков на прокатных станах до safety-данных в шахтах и геологических измерений на рудниках. Такая диверсификация даёт уникальный карьерный опыт: один и тот же специалист может за несколько лет поработать в очень разных доменах.

ЕВРАЗ инвестирует в собственный data-стек: внутренние команды развивают озеро данных, потоковую инфраструктуру, BI-витрины, MLOps. У компании есть программы стажировок, регулярные хакатоны и партнёрства с университетами. Для DE это означает понятную карьерную лестницу и доступ к коллегам с глубокой экспертизой.

Этапы собеседования {#etapy-sobesedovaniya}

Цикл найма DE в ЕВРАЗ обычно занимает 3–5 недель и проходит в 4 этапа.

1. HR-скрининг (25–40 минут)

Рекрутер уточняет опыт, стек (Python, SQL, Spark, Airflow, Kafka, ClickHouse/Greenplum), готовность к работе в Москве, Кузбассе или удалёнке, ожидания. Часто спрашивают про опыт работы с большими объёмами данных и индустриальными системами.

2. Техническое интервью (60–90 минут)

Основной фильтр. Один-два интервьюера: ведущий DE или архитектор. Разбирают опыт по реальным кейсам, проверяют SQL уверенного уровня, Python для ETL, основы Spark, понимание Kafka и принципов потоковой обработки.

3. Кейс-интервью / системный дизайн (60–90 минут)

В форме обсуждения архитектуры: «как ты спроектируешь конвейер для безопасной аналитики данных в шахтах?». Оценивают подход к выбору хранилища, формату данных, стратегии партиционирования, обработке поздних событий. Иногда — практическое задание на SQL или Python.

4. Финал с руководителем (60 минут)

Здесь акцент на зрелости, опыте, мотивации. Кандидата спрашивают о приоритетах, работе с DS-командами и продакшн-системами, готовности учиться индустриальной специфике. Часто разговор уходит в обсуждение реальных проектов из вашего портфолио.

Особенности по командам {#osobennosti-po-komandam}

Платформа данных и аналитики

Челенджи: проектирование и эксплуатация data-lake, BI-витрин, dbt-моделей. Технологии: Spark, Airflow, Kafka, ClickHouse, Greenplum, S3-совместимое хранилище, dbt, Trino/Presto. Кому подойдёт: DE с архитектурным мышлением.

Стальное производство

Челенджи: приём данных с прокатных станов и доменных печей, конвейеры в реальном времени, обработка пропусков, лабораторные анализы. Технологии: Kafka, Flink/Spark Streaming, historian-системы, ClickHouse, Iceberg/Hudi. Кому подойдёт: DE с интересом к потоковой обработке.

Угольные активы

Челенджи: safety-аналитика (метан, обрушения, прогибы кровли), real-time мониторинг шахтных систем, надёжность каналов связи. Технологии: Kafka, специализированные historian-системы, ClickHouse. Кому подойдёт: DE, кому интересна safety-аналитика — редкий и социально важный домен.

Геология и горно-добыча

Челенджи: работа с пространственными данными (опробование, керн, геомодели), интеграция с горно-геологическими системами, поддержка resource-моделирования. Технологии: Python, специализированные геопространственные форматы, базы данных Oracle/Postgres, иногда Spark для больших объёмов. Кому подойдёт: DE с математическим бэкграундом и интересом к нестандартным форматам.

Что ЕВРАЗ ценит в Data Engineer {#chto-evraz-tsenit}

В ЕВРАЗ ценят DE, который умеет работать в кросс-функциональных командах и видит весь цикл «источник → платформа → потребитель». Сильный кандидат на интервью говорит про конвейеры через надёжность, наблюдаемость и стоимость владения: какие SLA по данным, как мониторятся пропуски, что происходит при сбое источника, как организован retry, какие технические долги остались.

Простой пример. Постановка «дать аналитикам доступ к данным с прокатного стана» — слабый DE отвечает: «выгружу в Excel». Сильный — уточняет: «какой объём, какая частота сэмплирования, какой период истории, какой инструмент анализа (BI, Jupyter, ad-hoc SQL), как часто будут перерасчёты, нужны ли агрегаты, как соблюсти политики безопасности? предложу выгрузку в Parquet на S3 и витрину в ClickHouse с готовыми минутными агрегатами». Это уже разговор инженера, а не «человека с задачей».

ЕВРАЗ также ценит DE, который умеет работать в разных доменах. У холдинга очень разнородные активы, и в течение карьеры DE может переходить из одного проекта в другой — от стали к углю, от обогатительной фабрики к коммерции. Это требует широкого кругозора и быстрого освоения нового домена.

Готовься к собесу аналитика как в Duolingo
10 минут в день — SQL, Python, A/B, метрики. 1700+ вопросов в Telegram
Открыть Карьерник в Telegram

Как готовиться: план {#kak-gotovitsya-plan}

Подготовка строится в три фазы. Первая — общая база DE: SQL уверенного уровня, Python для ETL, Spark (DataFrame API, оптимизация, broadcast joins, skewed data), основы Airflow, Kafka, форматы данных (Parquet, ORC, Avro), основы построения хранилищ (Star/Snowflake, SCD).

Вторая фаза — индустриальная специфика. Изучите, как устроены historian-системы (PI, Wonderware, GE Proficy), SCADA, MES, как они интегрируются с data-lake. Прочитайте про обработку временных рядов в больших объёмах: TimescaleDB, ClickHouse. Если планируете в угольный или геологический блок — почитайте про специфику safety-аналитики и геопространственных данных. Полезные источники: кейсы ЕВРАЗ и других металлургов на DataFest, Smart Industry, AI Journey. Тренажёр Карьерник помогает поддерживать форму на SQL в течение подготовки.

Третья фаза — личные кейсы. Подготовьте 2–3 истории из карьеры в формате STAR. Сделайте отдельный кейс про проблему с качеством данных или производительностью pipeline и её решение. Подготовьте «слабую» историю — где что-то пошло не так и что вы из этого вынесли.

Частые ошибки {#chastye-oshibki}

  • Кандидат говорит про конвейеры абстрактно, без объёмов и частот.
  • Незнание базовых форматов и трейдоффов: Parquet vs CSV, когда оправдан Avro.
  • Слабый SQL и нежелание думать о плане выполнения.
  • Игнорирование data quality. DE без привычки писать проверки — это головная боль для команды.
  • Поверхностное знание Spark: путаница в lazy evaluation, отсутствие понимания shuffle.
  • Слишком общий рассказ о проектах. Без описания объёмов, SLA, проблем и решений — этого мало.

Связанные темы {#svyazannye-temy}

FAQ {#faq}

Сколько готовиться?

Для среднего грейда DE — 4–6 недель при 1–2 годах опыта. Для смежных ролей — 2–4 месяца на освоение Spark, Kafka, Airflow и SQL уверенного уровня.

Нужен ли промышленный опыт?

Желателен, но не обязателен. ЕВРАЗ берёт людей из IT, банков, ритейла. Индустриальную специфику можно освоить на рабочем месте.

Какой стек чаще всего в вакансиях?

Python, SQL, Spark (PySpark), Airflow, Kafka, ClickHouse, Greenplum, S3-совместимое хранилище, иногда Iceberg/Hudi, dbt.

Чем DE в ЕВРАЗ отличается от DE в Северстали?

ЕВРАЗ имеет более разнообразный профиль активов: металлургия + уголь + добыча руды. Это означает больше разноплановых задач для DE. Северсталь чуть более «монометаллургичная», что даёт более глубокую специализацию в стали.

Возможна ли удалёнка?

Зависит от направления. Часть позиций — гибрид (Москва), часть — выезд на производственные площадки в Кузбасс, на Урал. Уточняйте у рекрутера.

Какие книги и ресурсы помогают?

Kleppmann «Designing Data-Intensive Applications» как универсальная база. Документация Spark, Kafka, ClickHouse. Кейсы металлургов на AI Journey, DataFest и Хабре.

Что особенного в данных угольного бизнеса?

В угле много данных от систем безопасности: датчики метана, мониторинг подъёмных машин, состояние горных выработок. Часть данных приходит с шахт, где каналы связи нестабильны, и DE нужно проектировать pipeline с учётом возможных длительных перерывов в передаче. Это нетипичная для IT-отраслей задача: вместо отказа на 5 секунд возможны отказы на 5 часов, и архитектура должна это переживать.

Реально ли расти в архитектора платформы данных?

Да, в ЕВРАЗ есть понятные траектории роста. Многие DE проходят путь от поддержки одного pipeline до архитектуры всей платформы за 3–5 лет. Для этого важно набирать опыт в разных доменах (стальное производство, уголь, коммерция), участвовать в проектировании новых решений и аккуратно работать со стейкхолдерами.

Каков типичный масштаб данных в ЕВРАЗ?

На крупных площадках комбинатов и шахт суточный поток сенсорных данных — десятки гигабайт после агрегации до минутного шага. Если хранить «сырые» данные с частотой 1 Гц и выше, объёмы возрастают на порядки. Это и определяет архитектурные решения: columnar-форматы (Parquet, ORC), columnar-движки (ClickHouse), агрессивное партиционирование по дате и источнику, агрегаты-предвычисления для BI.

Статья основана на публичных источниках: вакансиях, отзывах кандидатов на open-площадках, профильных сообществах и общих практиках найма в промышленных компаниях. Конкретные процессы и требования могут отличаться от описанных и меняются со временем — уточняйте детали у рекрутера.