Distribuciones
Distribución Bernoulli
Se hace una prueba dicotómica (éxito o fallo), y la probabilidad de éxito es p
RX={0,1}(fallo o éxito)
pX(k)=pk(1−p)1−k
Propiedades
E(X)=p
V(X)=p⋅(1−p)
Distribución Binomial
El experimento consta de n pruebas.
Las pruebas son independientes.
Las pruebas son dicotómicas e identicamente distribuidas (Bernoullis) con probabilidad p de éxito.
Notamos X∼Bi(n,p).
pX(k)=(kn)pk(1−p)n−k ya que tenemos probabilidad pk(1−p)n−k de que salgan k éxitos y n−k fallos, y hay (kn) formas de elegir esos k éxitos.
Propiedades
Binomio de Newton:(a+b)n=∑k=0n(kn)akbn−k
E(X)=n⋅p
V(X)=n⋅p⋅(1−p)
Distribución Geométrica
Cantidad de ensayos de Bernoulli independientes e idénticamente distribuidos hasta el primer éxito.
Notamos X∼G(p)
pX(k)=(1−p)k−1⋅p, ya que tenemos k−1fallos y luego un éxito.
Propiedades
E(X)=p1
V(X)=p21−p
Falta de memoria
P(X>n+m∣X>n)=P(X>m)
TODO: demostrar. El apunte recomienda primero demostrar que P(X>k)=(1−p)k.
Distribución Binomial Negativa
Como geométrica, pero ahora esperamos al r-ésimo éxito (en vez del primero) para r≥1
pX(k)=(r−1k−1)pr(1−k)k−r, ya que tenemos r éxitos, k-r fallos, y de los primeros k−1 ensayos buscamos cuantas formas hay de obtener r−1 éxitos (ya sabemos que el ensayo k-ésimo tiene que ser éxito. Sino, no hubieramos parado).
Propiedades
E(X)=pr
V(X)=p2r(1−p)
Demostraciones: Binomial Negativa es suma de Geométricas independientes, se verá más adelante.
Distribución Hipergeométrica
Se saca sin reposición de una urna con N elementos, D de los cuales son éxitos y N-D fallos. La variable representa cuantos éxitos obtenemos al sacar n bolitas de la urna
Notamos X∼H(n,N,D)
pX(k)=(nN)(kD)(n−kN−D)
Propiedades
E(X)=nND
V(X)=N−1N−nnND(1−ND)
Demostración: ejercicio opcional (según el apunte).
Al factor N−1N−n se lo denomina factor de corrección por población finita.
Si n es mucho más pequeño que N, entonces la H(n,ND)puede ser aproximada por Bi(n,ND). En este caso, el factor de corrección vale aproximadamente 1.
Distribución Poisson
Si tenemos X∼Bi(n,p)y suponemos que n→∞, p→0 y n⋅p=λ, entonces pX(k)=(kn)pk(1−p)n−k→k!e−λλk∀k∈N0
X∼P(λ)si pX(k)=k!e−λλk.
Propiedades
E(X)=λ
V(X)=λ
Procesos de Poisson
Se interpreta la Poisson como la cantidad de ocurrencias de un evento en un intervalo de tiempo, área, u otra medida. Imaginamos que el intervalo lo subdividimos en muchos subintervalos y se satisface que:
La probabilidad de que ocurra un evento en un subintervalo es proporcional al largo del subintervalo.
La probabilidad de que ocurra más de un evento por subintervalo es despreciable.
La ocurrencia de un evento en un subintervalo es independiente de lo que ocurre en otros subintervalos.
Notamos Xt∼P(θ⋅t), donde θes la tasa media de ocurrencias o intensidad por unidad de tiempo y tes el largo del intervalo.
Última actualización