Distribuciones

Distribución Bernoulli

Se hace una prueba dicotómica (éxito o fallo), y la probabilidad de éxito es pp

RX={0,1}R_X = \{0, 1\}(fallo o éxito)

pX(k)=pk(1p)1kp_X(k) = p^k (1-p)^{1-k}

Propiedades

E(X)=pE(X) = p

V(X)=p(1p)V(X) = p \cdot (1-p)

Distribución Binomial

  • El experimento consta de n pruebas.

  • Las pruebas son independientes.

  • Las pruebas son dicotómicas e identicamente distribuidas (Bernoullis) con probabilidad p de éxito.

Notamos XBi(n,p)X \sim Bi(n, p).

pX(k)=(nk)pk(1p)nkp_X(k) = \binom{n}{k} p^k (1-p)^{n-k} ya que tenemos probabilidad pk(1p)nkp^k (1-p)^{n-k} de que salgan kk éxitos y nkn-k fallos, y hay (nk)\binom{n}{k} formas de elegir esos k éxitos.

Propiedades

Binomio de Newton:(a+b)n=k=0n(nk)akbnk (a + b)^n = \sum_{k=0}^n \binom{n}{k} a^k b^{n-k}

E(X)=npE(X) = n \cdot p

V(X)=np(1p)V(X) = n \cdot p \cdot (1-p)

Distribución Geométrica

Cantidad de ensayos de Bernoulli independientes e idénticamente distribuidos hasta el primer éxito.

Notamos XG(p)X \sim G(p)

pX(k)=(1p)k1pp_X(k) = (1-p)^{k-1} \cdot p, ya que tenemos k1k-1fallos y luego un éxito.

Propiedades

E(X)=1pE(X) = \frac{1}{p}

V(X)=1pp2V(X) = \frac{1-p}{p^2}

Falta de memoria

P(X>n+mX>n)=P(X>m)P(X > n + m | X > n) = P(X > m)

TODO: demostrar. El apunte recomienda primero demostrar que P(X>k)=(1p)kP(X>k) = (1-p)^k.

Distribución Binomial Negativa

Como geométrica, pero ahora esperamos al r-ésimo éxito (en vez del primero) para r1r \geq 1

pX(k)=(k1r1)pr(1k)krp_X(k) = \binom{k-1}{r-1} p^r (1-k)^{k-r}, ya que tenemos r éxitos, k-r fallos, y de los primeros k1k-1 ensayos buscamos cuantas formas hay de obtener r1r-1 éxitos (ya sabemos que el ensayo k-ésimo tiene que ser éxito. Sino, no hubieramos parado).

Propiedades

E(X)=rpE(X) = \frac{r}{p}

V(X)=r(1p)p2V(X) = \frac{r (1-p)}{p^2}

Demostraciones: Binomial Negativa es suma de Geométricas independientes, se verá más adelante.

Distribución Hipergeométrica

Se saca sin reposición de una urna con N elementos, D de los cuales son éxitos y N-D fallos. La variable representa cuantos éxitos obtenemos al sacar n bolitas de la urna

Notamos XH(n,N,D)X \sim H(n, N, D)

pX(k)=(Dk)(NDnk)(Nn)p_X(k) = \frac{\binom{D}{k} \binom{N - D}{n - k}}{\binom{N}{n}}

Propiedades

E(X)=nDNE(X) = n \frac{D}{N}

V(X)=NnN1nDN(1DN)V(X) = \frac{N - n}{N - 1} n \frac{D}{N} (1 - \frac{D}{N})

Demostración: ejercicio opcional (según el apunte).

Al factor NnN1\frac{N-n}{N-1} se lo denomina factor de corrección por población finita.

Si n es mucho más pequeño que N, entonces la H(n,ND)H(n, N D)puede ser aproximada por Bi(n,DN)Bi(n, \frac{D}{N}). En este caso, el factor de corrección vale aproximadamente 1.

Distribución Poisson

Si tenemos XBi(n,p)X \sim Bi(n, p)y suponemos que nn \to \infty, p0p \to 0 y np=λn \cdot p = \lambda, entonces pX(k)=(nk)pk(1p)nkeλλkk!kN0p_X(k) = \binom{n}{k} p^k (1-p)^{n-k} \to \frac{e^{- \lambda} \lambda ^k}{k!} \forall k \in N_0

XP(λ)X \sim P(\lambda)si pX(k)=eλλkk!p_X(k) = \frac{e^{-\lambda} \lambda^k}{k!}.

Propiedades

E(X)=λE(X) = \lambda

V(X)=λV(X) = \lambda

Procesos de Poisson

Se interpreta la Poisson como la cantidad de ocurrencias de un evento en un intervalo de tiempo, área, u otra medida. Imaginamos que el intervalo lo subdividimos en muchos subintervalos y se satisface que:

  • La probabilidad de que ocurra un evento en un subintervalo es proporcional al largo del subintervalo.

  • La probabilidad de que ocurra más de un evento por subintervalo es despreciable.

  • La ocurrencia de un evento en un subintervalo es independiente de lo que ocurre en otros subintervalos.

Notamos XtP(θt)X_t \sim P(\theta \cdot t), donde θ\thetaes la tasa media de ocurrencias o intensidad por unidad de tiempo y ttes el largo del intervalo.

Última actualización