E(X), Var(X), линейность математического ожидания, свойства дисперсии — ключевые характеристики случайных величин. На собеседовании просят посчитать ожидание для конкретной задачи или доказать, что Var(aX + b) = a²Var(X). Эти свойства используются везде — от расчёта размера выборки до оценки рисков.
Пусть `S = I_1 + ... + I_100`, где `I_i` — индикатор покупки пользователя i. Тогда `E[I_i] = 0.02` для каждого i. Следовательно `E[S] = 100 * 0.02 = 2`. Зависимости между пользователями повлияли бы на `Var(S)`, но не на `E[S]`.
Здесь `E[X] = 0.5`, потому что орёл выпадает с вероятностью 0.5. По формуле `Var(X) = p(1-p)` получаем `Var(X) = 0.5 * 0.5 = 0.25`. Это отражает разброс между значениями 0 и 1.
Если умножить величину на 2, отклонения от среднего увеличатся в 2 раза. Квадрат отклонений увеличится в 4 раза, поэтому `Var(2X) = 4 * Var(X) = 36`. Это полезно, когда меняют единицы измерения или пересчитывают показатели.
Нулевая `Cov(X,Y)` говорит, что отклонения X от `E[X]` не имеют линейной совместной изменчивости с отклонениями Y от `E[Y]`. Однако возможны нелинейные зависимости, при которых `Cov(X,Y)` всё равно будет 0. Поэтому вывод `Cov(X,Y)=0` значит независимы делать нельзя без дополнительных предположений.
Когда X и Y положительно связаны, они часто увеличиваются и уменьшаются одновременно, и сумма становится более нестабильной. При отрицательной связи колебания частично компенсируются, и разброс суммы уменьшается. Поэтому знак и величина `Cov(X,Y)` важны для понимания неопределённости суммы.
В приложении — таймер, прогресс, стрики и 1700+ вопросов по всем темам.
Тренировать в Telegram