Собеседование на Data Engineer в Okko

Готовься к собесу аналитика как в Duolingo
10 минут в день — SQL, Python, A/B, метрики. 1700+ вопросов в Telegram
Открыть Карьерник в Telegram

Почему Okko — особенный работодатель для DE

Okko — один из крупных российских OTT-сервисов. DE работает с event-данными плейера (старт / пауза / завершение / ошибки буферизации), метриками подписок, рекомендательной инфраструктурой, A/B-системой.

Особенность: OTT — это event-heavy продукт. Каждый запуск плейера, секунда просмотра, переключение качества — события для аналитики. Объёмы — миллиарды событий в день. Стэк: Spark, ClickHouse, Kafka, Airflow. Подробнее — на странице карьеры Okko.

Информация в статье основана на публичных источниках и опыте кандидатов. Формат может отличаться по командам и грейдам. Уточняйте у рекрутера.

Этапы собеседования

1. Скрининг с рекрутером (30 минут)

Опыт, мотивация. Специфика:

  • Был ли опыт с event-данными / streaming
  • Знание SQL deep + Python
  • Готовность к OTT-объёмам

2. SQL и Python (60 минут)

SQL — middle-senior. Python — pandas, pyspark.

3. Big Data + Streaming (60-90 минут)

Spark + Kafka.

4. ClickHouse (45-60 минут)

Для event-аналитики, partitioning, MV.

5. Архитектура (60 минут)

«Pipeline для плейер-событий», «A/B-инфраструктура», «recsys data feed».

6. Поведенческое + финал

STAR + стратегический разговор.

Что Okko ценит в DE

  • Event-driven mindset. События плейера, подписок.
  • Spark. Глубоко.
  • ClickHouse. Для event-аналитики.
  • Streaming. Kafka.
  • A/B-инфраструктура. Платформа A/B для PM.

Типичные задачи и кейсы

  • «Pipeline для плейер-событий: миллиарды в день»
  • «A/B-инфраструктура: бакетирование, метрики, отчёты»
  • «Recsys data feed: фичи для модели»
  • «Spark job на 5 TB событий: оптимизация»
  • «ClickHouse partitioning для events»
Готовься к собесу аналитика как в Duolingo
10 минут в день — SQL, Python, A/B, метрики. 1700+ вопросов в Telegram
Открыть Карьерник в Telegram

Как готовиться: план

  1. Spark deep. RDD, DataFrame, optimizer.
  2. ClickHouse. Engines, partitioning, MV.
  3. Streaming. Kafka.
  4. A/B-инфраструктура. Bucketing, метрики.
  5. DWH. Star schema, SCD.

Частые ошибки

  • ClickHouse поверхностно. Engines, partitioning — обязательно.
  • Слабая SQL. Senior-уровень.
  • Игнорировать event-domain. OTT = events.

Связанные темы

FAQ

Сколько этапов?

Обычно 5-6. Срок 4-6 недель.

Нужен ли OTT-опыт?

Желателен. Релевантным считается e-com с event-данными.

Какие инструменты главные?

Spark + ClickHouse + Kafka + Airflow.

Это официальная информация?

Этапы основаны на публичных источниках и опыте кандидатов. Уточняйте у рекрутера.