En este apunte solo pongo las definiciones para dos variables. No encontré nada sorpresivo en la generalización.
Definiciones
Sean X e Y dos variables aleatorias, la función de distribución/densidad conjunta del par (X,Y) se define como:
pX,Y(x,y)=P(X=x,Y=y) en caso discreto
P((X,Y)∈A)=∫AfX,Y(x,y)dxdy en caso continuo
Las funciones de probabilidad marginal de X e Y respectivamente son:
Caso discreto:
pX(x)=∑y∈RYpX,Y(x,y)
pY(y)=∑x∈RXpX,Y(x,y)
Caso continuo:
fX(x)=∫−∞∞fX,Y(x,y)dy
fY(y)=∫−∞∞fX,Y(x,y)dx
La función de distribución acumulada conjunta de (X,Y):
FX,Y(x,y)=∑s≤x,t≤ypX,Y(s,t) en caso discreto
FX,Y(x,y)=∫−∞x∫−∞yfX,Y(s,t)dtds en caso continuo
La función de probabilidad condicional de Ydado X=xestá dada por:
pY∣X=x(y)=pX(x)pX,Y(x,y) en caso discreto
fY∣X=x(y)=fX(x)fX,Y(x,y) en caso continuo
Notas que necesitamos que el denominador nunca valga 0.
Independencia
Dos variables aleatorias son independientes si y solo si ∀a<b,c<d:
P({a<X<b}∩{c<Y<d})=P(a<X<b)P(c<Y<d)
En el caso discreto, alcanza encontrar un par (x,y)tal que pX,Y(x,y)=pX(x)pY(y) para determinar que dos variables no son independientes.
En el caso continuo, se necesita un conjunto (a,b)×(c,d)⊆ℜ2 (es decir, de medida no nula) que no satisfaga fX,Y(x,y)=fX(x)fY(y). Si el soporte (conjunto de valores donde la densidad es positiva) de la densidad conjunta no es igual al producto cartesiano de los soportes de las densidades de X e Y, es inmediato encontrar un conjunto asi.
Si se encuentra un punto (x,y)en el que no se satisfaga, y las densidades son continuas, también es suficiente.
Esperanza
Sea h:ℜ2→ℜ, entonces:
E(h(X,Y))=∑x∈RX∑y∈RYh(x,y)pX,Y(x,y)
E(h(X,Y))=∫−∞∞∫−∞∞h(x,y)fX,Y(x,y)dxdy
Propiedades
E(aX+bY)=aE(X)+bE(Y)
Si son independientes, E(XY)=E(X)E(Y)
Covarianza y correlación
Cov(X,Y)=E[(X−E(X))(Y−E(Y))]
Correlación: ρ(X,Y)=V(X)V(Y)Cov(X,Y)
Propiedades
Cov(X,X)=V(X)
Cov(X,Y)=E(XY)−E(X)E(Y)
Si dos variables son independientes, entonces Cov(X,Y)=0
ρ(aX+b,cY+d)=signo(a⋅c)ρ(X,Y)
−1≤ρ(X,Y)≤1
∣ρ(X,Y)∣=1⟺Y=aX+b con probabilidad 1, para ciertos a,b∈ℜ,a=0
Correlación mide relación lineal entre variables.
Distribución Multinomial
Es una generalización de la binomial. Supongamos que se repite n veces en forma independiente una experiencia, que en cada repetición hay k resultados posibles (k≥2), cada uno de los cuales ocurre con probabilidad pi (1≤i≤k) y que estas probabilidades se mantienen constantes en todas las repeticiones. Definimos: Xi: número de veces que ocurre el resultado i.