Условная вероятность P(A|B) — основа для понимания зависимости событий и байесовского обновления. На собеседовании дают задачи, где нужно правильно обусловить вероятность — например, какова вероятность второго орла, если первый уже выпал. Ошибки в условной вероятности ведут к неверным выводам в любом анализе.
Вопрос сформулирован как вероятность `A` при условии `B`, то есть это `P(A|B)`. Многие путают её с `P(B|A)`, которая описывает чувствительность фильтра: как часто он помечает спам как спам. Для оценки качества решения на входящем потоке важно именно `P(A|B)`.
Если первая карта красная, в колоде остаётся 51 карта, из них красных 25. Поэтому вероятность красной второй карты при этом условии — 25 из 51. Частая ошибка — использовать исходную долю 26 из 52 и игнорировать влияние условия на оставшуюся колоду.
Условная вероятность всегда нормируется на условие, то есть на то, сколько раз встречается `B`. В таблице это означает: берём ячейку пересечения `A` и `B` и делим на сумму по строке или столбцу, соответствующему `B`. Так мы получаем долю `A` внутри всех случаев `B` и избегаем путаницы с `P(B|A)`.
`P(A∩B)` — это вероятность того, что в одном наблюдении произойдут и `A`, и `B`. `P(A|B)` описывает долю `A` внутри всех случаев `B`, поэтому для перехода к совместной вероятности нужно «вернуть масштаб» и умножить на `P(B)`. Это базовый мост между `P(A|B)` и `P(A∩B)`.
Условие `¬B` означает, что база — сессии без промокода, их 1000 − 200 = 800. Среди них покупок 32, поэтому `P(A|¬B)` равна 32 из 800, то есть 4%. Если разделить на 1000, вы получите не условную вероятность, а долю покупок в общей базе.
В приложении — таймер, прогресс, стрики и 1700+ вопросов по всем темам.
Тренировать в Telegram