# Vectores Aleatorios

En este apunte solo pongo las definiciones para dos variables. No encontré nada sorpresivo en la generalización.&#x20;

### Definiciones

Sean X e Y dos variables aleatorias, la **función de distribución/densidad conjunta** del par (X,Y) se define como:

* $$p\_{X,Y}(x,y) = P(X=x, Y=y)$$ en caso discreto
* $$P((X,Y) \in A) = \int\_A f\_{X,Y}(x,y) dx dy$$ en caso continuo

Las **funciones de probabilidad marginal** de X e Y respectivamente son:

* Caso discreto:
  * $$p\_X(x) = \sum\_{y \in R\_Y} p\_{X,Y}(x,y)$$
  * $$p\_Y(y) = \sum\_{x \in R\_X} p\_{X,Y}(x,y)$$
* Caso continuo:
  * $$f\_X(x) = \int^\infty\_{-\infty} f\_{X,Y}(x,y) dy$$
  * $$f\_Y(y) = \int^\infty\_{-\infty} f\_{X,Y}(x,y) dx$$

La **función de distribución acumulada conjunta** de (X,Y):

* $$F\_{X,Y}(x,y) = \sum\_{s \leq x, t \leq y} p\_{X,Y}(s,t)$$ en caso discreto
* $$F\_{X,Y}(x,y) = \int^x\_{-\infty}\int^y\_{-\infty} f\_{X,Y}(s,t) dt ds$$ en caso continuo

La **función de probabilidad condicional** de $$Y$$dado $$X=x$$está dada por:

* $$p\_{Y|X=x}(y) = \frac{p\_{X,Y}(x,y)}{p\_X(x)}$$ en caso discreto
* $$f\_{Y|X=x}(y) = \frac{f\_{X,Y}(x,y)}{f\_X(x)}$$ en caso continuo

Notas que necesitamos que el denominador nunca valga 0.

### Independencia

Dos variables aleatorias son independientes si y solo si $$\forall a < b, c < d$$:

$$P({a < X < b} \cap {c < Y < d}) = P(a < X < b) P(c < Y < d)$$

En el caso discreto, alcanza encontrar un par $$(x,y)$$tal que $$p\_{X,Y}(x,y) \neq p\_X(x) p\_Y(y)$$ para determinar que dos variables no son independientes.

En el caso continuo, se necesita un conjunto $$(a,b) \times (c,d) \subseteq \Re^2$$ (es decir, de medida no nula) que no satisfaga $$f\_{X,Y}(x,y) = f\_X(x) f\_Y(y)$$. Si el soporte (conjunto de valores donde la densidad es positiva) de la densidad conjunta no es igual al producto cartesiano de los soportes de las densidades de X e Y, es inmediato encontrar un conjunto asi.

Si se encuentra un punto $$(x,y)$$en el que no se satisfaga, y las densidades son continuas, también es suficiente.

### Esperanza

Sea $$h : \Re^2 \to \Re$$, entonces:

* $$E(h(X,Y)) = \sum\_{x \in R\_X} \sum\_{y \in R\_Y} h(x,y) p\_{X,Y}(x,y)$$
* $$E(h(X,Y)) = \int^\infty\_{-\infty} \int^\infty\_{-\infty} h(x,y) f\_{X,Y}(x,y) dx dy$$

#### Propiedades

* $$E(aX + bY) = aE(X) + b E(Y)$$
* Si son independientes, $$E(XY) = E(X) E(Y)$$

### Covarianza y correlación

$$Cov(X, Y) = E\[(X - E(X))(Y - E(Y))]$$

Correlación: $$\rho(X,Y) = \frac{Cov(X,Y)}{\sqrt{V(X)V(Y)}}$$

#### Propiedades

* $$Cov(X,X) = V(X)$$
* $$Cov(X,Y) = E(XY) - E(X)E(Y)$$
* Si dos variables son independientes, entonces $$Cov(X,Y) = 0$$
* $$\rho(aX + b, cY + d) = signo(a \cdot c) \rho(X, Y)$$
* $$-1 \leq \rho(X,Y) \leq 1$$
* $$|\rho(X,Y)| = 1 \iff Y = aX + b$$ con probabilidad 1, para ciertos $$a,b \in \Re, a \neq 0$$
* Correlación mide **relación lineal** entre variables.

### Distribución Multinomial

Es una generalización de la binomial. Supongamos que se repite n veces en forma independiente una experiencia, que en cada repetición hay $$k$$ resultados posibles ($$k \geq 2$$), cada uno de los cuales ocurre con probabilidad $$p\_i$$ ($$1 \leq i \leq k$$) y que estas probabilidades se mantienen constantes en todas las repeticiones. Definimos: $$X\_i$$: número de veces que ocurre el resultado $$i$$.

Notamos: $$(X\_1..X\_k) \sim M(n, p\_1, .. , p\_k)$$

$$p\_{X\_1..X\_k}(x\_1, .., x\_k) = \begin{cases} \frac{n!}{\prod^k\_{i=1} x\_i!} \prod^k\_{i=1} p^{x\_i}*i & \text{si } 0 \leq x\_i \leq n, \sum^k*{i=1} x\_i = n \ 0 & \text{caso contrario}\end{cases}$$

**Observación:** $$X\_i \sim Binom(n, p\_i)$$
