📈
Probabilidad y Estadistica (C)
  • Apunte de Probabilidad y Estadística para Computación
  • Axiomas y definiciones
  • Variables Aleatorias Discretas
    • Definiciones
    • Distribuciones
    • Demostraciones
  • Variables Aleatorias Continuas
    • Definiciones
    • Distribuciones
    • Demostraciones
  • Función Generadora de Momentos
  • Generación de Números Aleatorios
  • Vectores Aleatorios
    • Vectores Aleatorios
    • Suma de variables
    • Demostraciones
  • Estadística
    • Estimación puntual
    • Intervalos de confianza
    • Ejemplos de intervalos de confianza
    • Test de Hipótesis
Con tecnología de GitBook
En esta página
  • Suma y promedio de variables
  • Desigualdad de Chebyshev
  • Ley de los Grandes Números
  • Teorema Central del Límite

¿Te fue útil?

  1. Vectores Aleatorios

Suma de variables

AnteriorVectores AleatoriosSiguienteDemostraciones

Última actualización hace 3 años

¿Te fue útil?

Suma y promedio de variables

Por la unicidad, es muy útil trabajar con la función generadora de momentos:

MX+Y(t)=MX(t)MY(t)M_{X+Y}(t) = M_X(t) M_Y(t)MX+Y​(t)=MX​(t)MY​(t)

Por ejemplo, si X∼P(λ)X \sim P(\lambda)X∼P(λ) y Y∼P(μ)Y \sim P(\mu)Y∼P(μ), entonces:

MX+Y(t)=MX(t)MY(t)=eλ(et−1)eμ(et−1)=e(λ+μ)(et−1)M_{X+Y}(t) = M_X(t) M_Y(t) = e^{\lambda (e^t-1)} e^{\mu (e^t-1)} = e^{(\lambda + \mu) (e^t-1)}MX+Y​(t)=MX​(t)MY​(t)=eλ(et−1)eμ(et−1)=e(λ+μ)(et−1)

por lo que X+Y∼P(λ+μ)X + Y \sim P(\lambda + \mu)X+Y∼P(λ+μ).

Propiedades

  • E(∑i=1naiXi)=∑i=1naiE(Xi)E(\sum^n_{i=1} a_iX_i) = \sum^n_{i=1} a_i E(X_i)E(∑i=1n​ai​Xi​)=∑i=1n​ai​E(Xi​)

  • V(∑i=1naiXi)=∑i=1nai2V(Xi)+2∑i<jaiajCov(Xi,Xj)V(\sum^n_{i=1} a_iX_i) = \sum^n_{i=1} a^2_i V(X_i) + 2 \sum_{i<j} a_i a_j Cov(X_i, X_j)V(∑i=1n​ai​Xi​)=∑i=1n​ai2​V(Xi​)+2∑i<j​ai​aj​Cov(Xi​,Xj​)

  • Si son independientes, V(∑i=1naiXi)=∑i=1nai2V(Xi)V(\sum^n_{i=1} a_iX_i) = \sum^n_{i=1} a^2_i V(X_i)V(∑i=1n​ai​Xi​)=∑i=1n​ai2​V(Xi​)

Si son independientes e identicamente distribuidas, con E(Xi)=μE(X_i) = \muE(Xi​)=μ y V(Xi)=σ2V(X_i) = \sigma^2V(Xi​)=σ2, y sea Xˉ=1n∑i=1nXi\bar{X} = \frac{1}{n} \sum^n_{i=1} X_iXˉ=n1​∑i=1n​Xi​ el promedio, entonces:

  • E(∑i=1nXi)=nμE(\sum^n_{i=1} X_i) = n \muE(∑i=1n​Xi​)=nμ

  • V(∑i=1nXi)=nσ2V(\sum^n_{i=1} X_i) = n \sigma^2V(∑i=1n​Xi​)=nσ2

  • E(Xˉ)=μE(\bar{X}) = \muE(Xˉ)=μ

  • V(Xˉ)=σ2nV(\bar{X}) = \frac{\sigma^2}{n}V(Xˉ)=nσ2​

Desigualdad de Chebyshev

Provee una cota que puede ser bastante grosera.

Ley de los Grandes Números

Teorema Central del Límite

Corrección por continuidad

Cuando se aproxima una distribución discreta por una continua, como es el caso de la aproximación de la distribución binomial por la normal, es necesario efectuar una corrección.

Sea XXXuna v.a. con E(X)=μE(X) = \muE(X)=μ y V(X)=σ2V(X) = \sigma^2V(X)=σ2, entonces:

P(∣X−μ∣>ε)≤σ2ε2 (∀ε>0)P(|X - \mu| > \varepsilon) \leq \frac{\sigma^2}{\varepsilon^2}\ (\forall \varepsilon > 0)P(∣X−μ∣>ε)≤ε2σ2​ (∀ε>0)

Otra formulación: P(∣X−μ∣>kσ)≤1k2 (∀k>0)P(|X - \mu| > k \sigma) \leq \frac{1}{k^2}\ (\forall k > 0)P(∣X−μ∣>kσ)≤k21​ (∀k>0)

Sea XnX_nXn​una sucesión de v.a., diremos que converge en probabilidad a la v.a. XXXy lo notamos Xn→pXX_n \to^p XXn​→pX si:

limn→∞P(∣Xn−X∣>ε)=0 (∀ε>0)lim_{n\to \infty} P(|X_n - X| > \varepsilon) = 0\ (\forall \varepsilon > 0)limn→∞​P(∣Xn​−X∣>ε)=0 (∀ε>0)

La Ley de los Grandes Números dice que, si XiX_iXi​son i.i.d con E(Xi)=μE(X_i) = \muE(Xi​)=μ y V(Xi)=σ2<∞V(X_i) = \sigma^2 < \inftyV(Xi​)=σ2<∞, entonces Xˉ→pμ\bar{X} \to^p \muXˉ→pμ

Sean XiX_iXi​ i.i.d con E(Xi)=μE(X_i) = \muE(Xi​)=μ y V(Xi)=σ2<∞V(X_i) = \sigma^2 < \inftyV(Xi​)=σ2<∞, entonces:

∑Xi−nμnσ→dZ∼N(0,1)\frac{\sum X_i - n \mu}{\sqrt{n} \sigma} \to^d Z \sim N(0,1)n​σ∑Xi​−nμ​→dZ∼N(0,1)

n(Xˉ−μ)σ→dZ∼N(0,1)\frac{\sqrt{n} (\bar{X} - \mu)}{\sigma} \to^d Z \sim N(0,1)σn​(Xˉ−μ)​→dZ∼N(0,1)

donde →d\to^d→d se interpreta en el sentido de que la distribución converge a ser igual a la normal estándar.

Por ejemplo, si la discreta es una variable con rango en los naturales, pueden pasar que P(X≤k)+P(X≥k+1)=1P(X \leq k) + P (X \geq k+1) = 1P(X≤k)+P(X≥k+1)=1en la distribución discreta pero no en la continua.

Para resolver esto, tomamos P(X≤k)=P(X≤k+0.5)P(X \leq k) = P (X \leq k+0.5)P(X≤k)=P(X≤k+0.5) y P(X≥k+1)=P(X≥k+0.5)P(X \geq k+1) = P (X \geq k+0.5)P(X≥k+1)=P(X≥k+0.5) en la aproximación continua.