Suma de variables

Suma y promedio de variables

Por la unicidad, es muy útil trabajar con la función generadora de momentos:

MX+Y(t)=MX(t)MY(t)M_{X+Y}(t) = M_X(t) M_Y(t)

Por ejemplo, si XP(λ)X \sim P(\lambda) y YP(μ)Y \sim P(\mu), entonces:

MX+Y(t)=MX(t)MY(t)=eλ(et1)eμ(et1)=e(λ+μ)(et1)M_{X+Y}(t) = M_X(t) M_Y(t) = e^{\lambda (e^t-1)} e^{\mu (e^t-1)} = e^{(\lambda + \mu) (e^t-1)}

por lo que X+YP(λ+μ)X + Y \sim P(\lambda + \mu).

Propiedades

  • E(i=1naiXi)=i=1naiE(Xi)E(\sum^n_{i=1} a_iX_i) = \sum^n_{i=1} a_i E(X_i)

  • V(i=1naiXi)=i=1nai2V(Xi)+2i<jaiajCov(Xi,Xj)V(\sum^n_{i=1} a_iX_i) = \sum^n_{i=1} a^2_i V(X_i) + 2 \sum_{i<j} a_i a_j Cov(X_i, X_j)

  • Si son independientes, V(i=1naiXi)=i=1nai2V(Xi)V(\sum^n_{i=1} a_iX_i) = \sum^n_{i=1} a^2_i V(X_i)

Si son independientes e identicamente distribuidas, con E(Xi)=μE(X_i) = \mu y V(Xi)=σ2V(X_i) = \sigma^2, y sea Xˉ=1ni=1nXi\bar{X} = \frac{1}{n} \sum^n_{i=1} X_i el promedio, entonces:

  • E(i=1nXi)=nμE(\sum^n_{i=1} X_i) = n \mu

  • V(i=1nXi)=nσ2V(\sum^n_{i=1} X_i) = n \sigma^2

  • E(Xˉ)=μE(\bar{X}) = \mu

  • V(Xˉ)=σ2nV(\bar{X}) = \frac{\sigma^2}{n}

Desigualdad de Chebyshev

Sea XXuna v.a. con E(X)=μE(X) = \mu y V(X)=σ2V(X) = \sigma^2, entonces:

P(Xμ>ε)σ2ε2 (ε>0)P(|X - \mu| > \varepsilon) \leq \frac{\sigma^2}{\varepsilon^2}\ (\forall \varepsilon > 0)

Provee una cota que puede ser bastante grosera.

Otra formulación: P(Xμ>kσ)1k2 (k>0)P(|X - \mu| > k \sigma) \leq \frac{1}{k^2}\ (\forall k > 0)

Ley de los Grandes Números

Sea XnX_nuna sucesión de v.a., diremos que converge en probabilidad a la v.a. XXy lo notamos XnpXX_n \to^p X si:

limnP(XnX>ε)=0 (ε>0)lim_{n\to \infty} P(|X_n - X| > \varepsilon) = 0\ (\forall \varepsilon > 0)

La Ley de los Grandes Números dice que, si XiX_ison i.i.d con E(Xi)=μE(X_i) = \mu y V(Xi)=σ2<V(X_i) = \sigma^2 < \infty, entonces Xˉpμ\bar{X} \to^p \mu

Teorema Central del Límite

Sean XiX_i i.i.d con E(Xi)=μE(X_i) = \mu y V(Xi)=σ2<V(X_i) = \sigma^2 < \infty, entonces:

  • XinμnσdZN(0,1)\frac{\sum X_i - n \mu}{\sqrt{n} \sigma} \to^d Z \sim N(0,1)

  • n(Xˉμ)σdZN(0,1)\frac{\sqrt{n} (\bar{X} - \mu)}{\sigma} \to^d Z \sim N(0,1)

donde d\to^d se interpreta en el sentido de que la distribución converge a ser igual a la normal estándar.

Corrección por continuidad

Cuando se aproxima una distribución discreta por una continua, como es el caso de la aproximación de la distribución binomial por la normal, es necesario efectuar una corrección.

Por ejemplo, si la discreta es una variable con rango en los naturales, pueden pasar que P(Xk)+P(Xk+1)=1P(X \leq k) + P (X \geq k+1) = 1en la distribución discreta pero no en la continua.

Para resolver esto, tomamos P(Xk)=P(Xk+0.5)P(X \leq k) = P (X \leq k+0.5) y P(Xk+1)=P(Xk+0.5)P(X \geq k+1) = P (X \geq k+0.5) en la aproximación continua.

Última actualización