Кейс: retention упал. Как решать на собеседовании
Формулировка кейса
В продукте (допустим, маркетплейс) retention D7 упал с 40% до 25% за последние две недели. Как будете разбираться?
Это один из самых частых кейсов на собеседовании продуктового аналитика. Его задают в Авито, Ozon, Wildberries, Яндексе, Тинькофф — варианты отличаются только продуктом и цифрами. Ниже — структурный разбор, который ждут от middle-кандидата.
Что хотят услышать
Интервьюер проверяет три вещи:
- Умение задавать уточняющие вопросы — не бросаться решать, а понять контекст.
- Структурность — разбиение проблемы на части, не хаос.
- Инженерное мышление — конкретные метрики и данные, а не «я бы посмотрел общую картину».
Говорим медленно, вслух формулируем гипотезы, выписываем структуру на листке.
Шаг 1. Уточняющие вопросы
Прежде чем лезть в анализ, проверяем, что правильно поняли задачу:
- Про какой retention речь? D1, D7, D30? Classic retention или unbounded?
- Откуда цифра? Дашборд, выгрузка из БД, репорт?
- Какой сегмент? Все пользователи, новички, платящие?
- Какой продукт/платформа? iOS, Android, web, все сразу?
- Что ещё упало? DAU, конверсия, выручка?
На собесе обычно отвечают коротко: «D7 у новых пользователей, дашборд в Metabase, все платформы, остальное пока не смотрели». Этого достаточно, чтобы двигаться дальше.
Шаг 2. Первая проверка — это не баг в данных?
Самая частая причина «падения метрики» — не реальное падение, а проблема с учётом. Идём по списку:
- Изменились ли ETL-джобы? Новая логика фильтрации или расчёта.
- Не упал ли трекер? Пропуск событий, поломка SDK после релиза.
- Не изменилось ли определение метрики? Кто-то мог редактировать SQL в дашборде.
- Не сломалась ли выгрузка в dashboards? Последние данные неполные.
- Чек на консистентность: сравниваем с параллельными источниками (PostHog, Amplitude, сырые логи).
Ответ на собесе: «Прежде всего проверю, что метрика посчитана корректно — сравню с сырыми данными, проверю changelog ETL». Если кандидат сразу прыгает в продуктовые гипотезы — минус очко.
Прокачать тему на реальных задачах удобно в боте @kariernik_bot — база вопросов собрана с собеседований в Яндексе, Авито, Ozon, Тинькофф.
Шаг 3. Декомпозиция метрики
Retention — не атомарная метрика. Разбиваем:
- Когортный разрез: падение у когорты одной недели или у всех?
- Канал привлечения: органика, paid, реферальные ссылки — где просело сильнее?
- Платформа: iOS, Android, web — одинаково или нет?
- Гео/язык: регионы, города, языки.
- Сегмент пользователей: новички vs старожилы, платящие vs бесплатные.
Это даёт первый сигнал: если упал один сегмент — гипотезы сужаются в 10 раз. Если все одновременно — смотрим на общие факторы (релиз, выходные дни, сезонность).
Пример на собесе: «Разложу по 4 измерениям: день когорты, канал, платформа, гео. Если один сегмент сильно выделяется — копаю туда. Если все — ищу общую причину».
Шаг 4. Построение гипотез
Выписываем список по категориям:
Внутренние (релизные)
- Релиз — что выкатили за две недели? Может быть новая фича, редизайн, изменение онбординга.
- A/B-тесты — сейчас активны какие-то тесты, которые могли негативно повлиять на retention?
- Инфраструктура — деплой с увеличенным временем загрузки, падение конверсии push-ов, ломающие изменения в backend.
- Изменения в пуш-рассылках — сократили частоту, изменили контент.
Внешние
- Сезонность — если падает начало учебного года / праздники / отпуска.
- Конкуренты — запустили промо, новое приложение.
- Маркетинг — изменились каналы привлечения (стало больше «мусорного» трафика из performance).
- Новости/события — что-то в мире, что влияет на категорию.
Смешанные
- Botnet/фрод — накрутка регистраций с низкой вовлечённостью.
- Изменение ценовой политики — повышение цен, отмена промокодов.
Ответ на собесе: «Составлю таблицу гипотез, приоритизирую по ожидаемому эффекту × лёгкости проверки. Начну с релизных — их быстрее всего валидировать».
Шаг 5. Проверка гипотез
Каждую гипотезу проверяем через данные:
Гипотеза 1: новый онбординг снизил retention
- Смотрим на когорты ДО и ПОСЛЕ релиза онбординга.
- Если релиз был A/B-тестом — смотрим метрики групп.
- Если выкатили на 100% — сравниваем с параллельными периодами.
Гипотеза 2: изменилось качество трафика
- Смотрим retention по каналам.
- Если конкретный канал (например, performance TikTok) резко вырос в объёме, но его retention ниже среднего — это объясняет падение среднего.
- Метрика: Simpson's paradox — среднее может падать, хотя ни один сегмент не ухудшился.
Гипотеза 3: технический сбой
- Логи ошибок: увеличилось ли количество crash-ов, таймаутов, 500-х.
- Время загрузки страниц.
- Доля пользователей, которые не доходят до ключевого события (open app → первый клик).
Гипотеза 4: сезонность
- Смотрим retention за тот же период прошлого года.
- Корректируем на YoY тренд.
Шаг 6. Что будем делать дальше
После того как нашли гипотезу-победителя — переходим к действиям:
- Если релиз виноват — откатить или допилить, пока retention не восстановится.
- Если качество трафика — работать с маркетингом над сегментацией источников.
- Если сезонность — задокументировать, не паниковать, не делать лишних изменений.
- Если фрод — поднять тикет на антифрод-команду.
На собесе ждут: «Поделюсь выводами с PM, мы приоритизируем действия по ROI и trust, напишу пост в #analytics-channel — чтобы команда знала, что копаем».
Структура ответа — краткий шаблон
Если забудете детали, помните структуру:
- Уточнения (что за retention, какой сегмент, тайминг).
- Проверка данных (баг в ETL, трекере, расчёте?).
- Декомпозиция (когорты, каналы, платформы, гео).
- Гипотезы (внутренние: релиз, A/B, инфраструктура; внешние: сезонность, конкуренты).
- Проверка (каждую через данные).
- Действия (откат, доработка, коммуникация с PM).
Этот фреймворк работает для любой метрики, которая «упала» — конверсия, DAU, выручка.
На собесе такие штуки часто спрашивают. Быстрый способ довести до автоматизма — тренажёр в Telegram с задачами из реальных интервью.
Типичные ошибки
- Прыгать в решение без уточнений. Первое впечатление — аналитик не владеет собой.
- Давать ответ без гипотез. «Я бы посмотрел данные» — не ответ.
- Игнорировать проверку данных. Каждый 3-й кейс на практике — баг в расчёте.
- Игнорировать сегментацию. Среднее может быть неинформативным.
- Давать одну гипотезу. Всегда 3-5 вариантов, иначе видно тоннельное мышление.
Как подготовиться к таким кейсам
Чтение теории тут почти не помогает — нужна практика. Работают три подхода:
- Разбирать чужие кейсы — блоги Netflix, Uber, Авито, Яндекс.
- Прогонять структуру на разных метриках — «DAU упал», «конверсия в покупку упала», «средний чек упал».
- Задачи на собесах — в Карьернике есть блок продуктовых кейсов с разборами.
Тренажёр Карьерник содержит кейсы такого формата — с гипотезами и разборами. За две недели подготовки структура становится рефлексом: любой кейс раскладывается по шагам без запинок.
Совет: на собесе выписывайте структуру на листочек. Это нормально — интервьюер видит, что вы думаете, а не зазубрили. И сами не запутаетесь.
Читайте также
- Кейс: метрика упала на собеседовании
- Кейсы на собеседовании аналитика
- Когортный анализ
- Как считать retention
- Парадокс Симпсона
FAQ
Сколько времени на собеседовании даётся на такой кейс?
Обычно 20–30 минут. В некоторых компаниях (Яндекс, Авито) — до 45 минут. Структурный ответ на 10 минут + 10 минут на уточняющие диалоги — нормальный тайминг.
Что важнее — найти правильную гипотезу или показать структуру?
Структура. Интервьюер знает, что в реальной жизни причину никто не находит за 20 минут. Задача кейса — проверить мышление, а не гадание.
Можно ли задавать много уточняющих вопросов?
Да, но не превращайте в интервью наоборот. 3-5 вопросов в начале — нормально, дальше нужно начинать отвечать. Если вопросов больше 10 — интервьюер начнёт подозревать, что вы тянете время.
Что делать, если не знаю специфику продукта из кейса?
Сказать об этом: «я не работал в e-commerce, поэтому сделаю общие предположения про такой тип продукта». Интервьюер либо подкинет контекст, либо согласится с общими рассуждениями. Притворяться, что знаете специфику — хуже всего.