Математическое ожидание и дисперсия: вопросы для собеседования (часть 4)

E(X), Var(X), линейность математического ожидания, свойства дисперсии — ключевые характеристики случайных величин. На собеседовании просят посчитать ожидание для конкретной задачи или доказать, что Var(aX + b) = a²Var(X). Эти свойства используются везде — от расчёта размера выборки до оценки рисков.

Теорема БайесаУсловная вероятностьНепрерывные распределенияКомбинаторикаДискретные распределенияНезависимость событийСовместные распределения и ЦПТСлучайные величины: основыМножества и события

Вопросы 1620 из 20

16У вас 100 пользователей, каждый совершает покупку с вероятностью 0.02 (событие может зависеть от других пользователей, но вероятность для каждого известна). Пусть `S` — число покупок. Чему равно `E[S]`?
A0.02
B50
C2
DНельзя посчитать без независимости
Ответ: По `linearity of expectation` `E[S]` равна сумме ожиданий индикаторов покупок, и независимость не нужна.

Пусть `S = I_1 + ... + I_100`, где `I_i` — индикатор покупки пользователя i. Тогда `E[I_i] = 0.02` для каждого i. Следовательно `E[S] = 100 * 0.02 = 2`. Зависимости между пользователями повлияли бы на `Var(S)`, но не на `E[S]`.

17`X` = 1, если выпал орёл при честной монете, и 0 иначе. Чему равно `Var(X)`?
A0.5
B0.25
C1
D0
Ответ: Для индикатора с `p=0.5` выполняется `Var(X) = p(1-p)`.

Здесь `E[X] = 0.5`, потому что орёл выпадает с вероятностью 0.5. По формуле `Var(X) = p(1-p)` получаем `Var(X) = 0.5 * 0.5 = 0.25`. Это отражает разброс между значениями 0 и 1.

18Если `Var(X) = 9`, чему равно `Var(2X)`?
A18
B36
C9
D4.5
Ответ: При масштабировании на a выполняется `Var(aX) = a^2 Var(X)`.

Если умножить величину на 2, отклонения от среднего увеличатся в 2 раза. Квадрат отклонений увеличится в 4 раза, поэтому `Var(2X) = 4 * Var(X) = 36`. Это полезно, когда меняют единицы измерения или пересчитывают показатели.

19Если `Cov(X,Y) = 0`, что можно сказать про зависимость X и Y?
AОни обязательно независимы
BОни обязательно зависимы
CЗначит `E[X+Y]` нельзя посчитать
DНулевая `Cov(X,Y)` означает отсутствие линейной связи, но независимость не гарантируется
Ответ: `Cov(X,Y)=0` означает отсутствие линейной связи, но не обязательно независимость.

Нулевая `Cov(X,Y)` говорит, что отклонения X от `E[X]` не имеют линейной совместной изменчивости с отклонениями Y от `E[Y]`. Однако возможны нелинейные зависимости, при которых `Cov(X,Y)` всё равно будет 0. Поэтому вывод `Cov(X,Y)=0` значит независимы делать нельзя без дополнительных предположений.

20Какое утверждение наиболее верно про `Var(X+Y)` и `Cov(X,Y)`?
A`Var(X+Y) = Var(X) + Var(Y)` всегда, независимо от связи
BПоложительная `Cov(X,Y)` уменьшает `Var(X+Y)`
C`Cov(X,Y)` влияет только на `E[X+Y]`, но не на `Var(X+Y)`
DЕсли `Cov(X,Y)` положительна, то `Var(X+Y)` обычно больше, чем при нулевой ковариации
Ответ: `Var(X+Y)` зависит от того, насколько X и Y движутся вместе, что отражает `Cov(X,Y)`.

Когда X и Y положительно связаны, они часто увеличиваются и уменьшаются одновременно, и сумма становится более нестабильной. При отрицательной связи колебания частично компенсируются, и разброс суммы уменьшается. Поэтому знак и величина `Cov(X,Y)` важны для понимания неопределённости суммы.

1234

Хотите тренировать интерактивно?

В приложении — таймер, прогресс, стрики и 1700+ вопросов по всем темам.

Тренировать в Telegram

Другие темы: Теория вероятностей

Теорема БайесаУсловная вероятностьНепрерывные распределенияКомбинаторикаДискретные распределенияНезависимость событийСовместные распределения и ЦПТСлучайные величины: основыМножества и события