Собеседование на Data Engineer в Т-Банке (Тинькофф)
Содержание:
Почему Т-Банк — особенный работодатель для DE
Т-Банк (Тинькофф) — один из самых продуктовых банков, с собственным data-стеком и активной digital-трансформацией. DE здесь работает на стыке банковских данных (транзакции, продукты, клиенты) и продуктовой аналитики. Стек: преимущественно open-source — Airflow, Spark, ClickHouse, Kafka, плюс часть on-prem решений.
Особенность: финтех-данные имеют жёсткую регуляторную нагрузку. Любой pipeline проходит compliance, документируется, тестируется на корректность. DE в Т-Банке должен думать не только про скорость и масштаб, но и про trust в данных — auditability, lineage, data quality. Актуальные вакансии — на странице карьеры Т-Банка.
Информация в статье основана на публичных источниках и опыте кандидатов. Формат собеседования отличается по командам и грейдам. Уточняйте у рекрутера.
Этапы собеседования
1. Скрининг с рекрутером (30 минут)
Опыт, мотивация. Особенности Т-Банка:
- Опыт с банковскими / финтех-данными
- Знание SQL и Python на сильном уровне
- Готовность работать в среде с compliance-ограничениями
2. SQL deep dive (60 минут)
Live-coding на банковских данных: транзакции, retention, когорты, RFM. Оконные функции, CTE, оптимизация запросов на больших таблицах. Подготовка — SQL на собеседовании, оконные функции.
3. Инструменты и архитектура (60-90 минут)
Темы:
- Airflow: DAG-design, idempotence, sensors, retry. Airflow на собесе
- Spark: optimization, partitioning, broadcast joins
- Kafka: consumer groups, retention, exactly-once semantics
- ClickHouse: MergeTree, materialized views, replication
- Data quality: тесты, мониторинг, alerting
4. Data modeling и DWH (45-60 минут)
«Спроектируй DWH для нового кредитного продукта», «как хранить historical view клиента через SCD типы». Звезда / снежинка / Data Vault.
5. System design (60 минут)
«Спроектируй pipeline для real-time fraud detection feed», «как обработать late-arriving транзакции».
6. Поведенческое и фит (45 минут)
STAR-вопросы. Т-Банк ценит самостоятельность и инициативу.
7. Финал с лидом DE
Стратегический разговор.
Что Т-Банк ценит в DE
- Data quality. В банке данные должны быть корректными — баг в pipeline может стоить миллионов
- Понимание финтех-домена. Транзакции, скоринг, продуктовые метрики — терминология
- Open-source стек. Airflow, Spark, Kafka, ClickHouse — must
- Скорость. Релизы недельные, инциденты быстро
- Compliance-mindset. Lineage, документация, auditability
Типичные задачи и кейсы
- «Транзакции late-arrive с задержкой до 7 дней. Как обрабатывать?»
- «Спроектируй pipeline для real-time scoring модели»
- «DAG падает раз в неделю. План диагностики?»
- «Запрос на 1B записей выполняется час. Оптимизируй»
- «Как обеспечить exactly-once семантику в Kafka pipeline?»
Как готовиться: план
- SQL на финтех-данных. Когорты, RFM, retention, агрегации по транзакциям. SQL-раздел.
- Airflow глубоко. Pet-project с DAG, sensors, idempotence, backfill. Airflow на собесе.
- Spark. Книга + practice. Понимание optimization.
- Kafka. Книга + понимание exactly-once.
- Distributed systems. «Designing Data-Intensive Applications» (Kleppmann) — главная книга.
- Data quality. Great Expectations или DBT tests.
Частые ошибки
- Игнорировать data quality. В банке корректность данных — главное. Сказать «модель важнее качества данных» — провал
- Зубрить инструменты без понимания. «Я делал DAG-и в Airflow» — мало. Нужно объяснить trade-off-ы dynamic vs static DAG
- Не учитывать compliance. Любые изменения логируются, документируются
- Слабая алгоритмика. Live-coding есть, нужно решать стандартные задачи
- Не учитывать failure modes. Что если Kafka упадёт? Что если Spark worker зависнет?
Связанные темы
- Собеседование на Data Engineer
- Собеседование на DE в Яндексе
- Airflow на собесе DE
- Apache Spark на собесе DE
- Kafka на собесе DE
FAQ
Сколько этапов в собеседовании на DE в Т-Банке?
Обычно 5-7: рекрутер → SQL → инструменты → data modeling → system design → поведенческое → финал. Срок 3-5 недель.
Нужен ли финтех-опыт?
Желателен, но не критичен. Если приходишь из e-commerce/SaaS — упор на готовность освоить домен.
Какие инструменты обязательны?
SQL (must), Python (must), Airflow (must), Spark (для middle+), Kafka (для streaming-команд), ClickHouse (преимущество).
Спрашивают ли ML?
В DE-командах — нет. Если интересуешься ML Engineering — это отдельная роль.
Это официальная информация?
Этапы основаны на публичных источниках и опыте кандидатов. Уточняйте у рекрутера.