"Prawo leniwego statystyka" jest jedną z własności wartości oczekiwanej zmiennej losowej.
Treść twierdzenia
Jeżeli \(X\) jest zmienną losową o wartościach \(x_i\) i prawdopodobieństwach \(f(x_i)=P(X=x_i)\) dla \(i > 0\) to dla każdej funkcji \(g: D \to \Reals\):
\[ E(g(X))= \sum_i g (x_i)f(x_i) = \sum_i g(x_i)P(X=x_i) \]
Dowód
\[ \sum_i g(x_i)f(x_i) = \sum_j \sum_{i:g(x_i)=y_j} g(x_i)f(x_i) = \]
\[ \sum_j y_j \sum_{i:g(x_i)=y_j}f(x_i)=\sum_j P(g(X) = y_j) = E(g(X)) = Eg(x) \]
Przykład
Obliczyć wartość oczekiwaną zmiennej losowej \(Y=(-1)^X\) , o zadanym rozkładzie \(X\):
\[ P(X=0)=0,3 \quad P(X=1)=0,1 \quad P(X=3)=0,6 \]
Rozwiązanie
\[ EY = E[(-1)^X] = (-1)^0 \cdot 0,3 + (-1)^1 \cdot 0,1 + (-1)^3 \cdot 0,6 = \]
\[ 0,3 - 0,1 - 0,6 = -0,4 \]