📈
Probabilidad y Estadistica (C)
  • Apunte de Probabilidad y Estadística para Computación
  • Axiomas y definiciones
  • Variables Aleatorias Discretas
    • Definiciones
    • Distribuciones
    • Demostraciones
  • Variables Aleatorias Continuas
    • Definiciones
    • Distribuciones
    • Demostraciones
  • Función Generadora de Momentos
  • Generación de Números Aleatorios
  • Vectores Aleatorios
    • Vectores Aleatorios
    • Suma de variables
    • Demostraciones
  • Estadística
    • Estimación puntual
    • Intervalos de confianza
    • Ejemplos de intervalos de confianza
    • Test de Hipótesis
Con tecnología de GitBook
En esta página
  • Método de momentos
  • Método de Máxima Verosimilitud
  • Propiedades de estimadores y criterios de selección

¿Te fue útil?

  1. Estadística

Estimación puntual

AnteriorDemostracionesSiguienteIntervalos de confianza

Última actualización hace 3 años

¿Te fue útil?

  • Población: conjunto total de los sujetos o unidades de análisis de interés en el estudio

  • Muestra: cualquier subconjunto de sujetos o unidades de análisis de la población en estudio

El objetivo de la estimación puntual es usar una muestra para obtener números que, en algún sentido, sean los que mejor representan a los verdaderos valores de los parámetros de interés.

Un estimador puntual de un parámetro θ\thetaθ es un valor que puede ser considerado representativo de θ\thetaθ y se indicar θ^\hat\thetaθ^. Se obtiene a partir de una función de una muestra.

Método de momentos

Dada una muestra aleatoria X1,X2,...,XnX_1, X_2, ..., X_nX1​,X2​,...,Xn​, se denomina momento muestral de orden k a

∑i=1nXikn\frac{\sum^n_{i=1} X^k_i}{n}n∑i=1n​Xik​​

Si Xi∼F(θ1,...,θm)X_i \sim F(\theta_1, ..., \theta_m)Xi​∼F(θ1​,...,θm​) y queremos estimar estos mmmparámetros, resolvemos el siguiente sistema de ecuaciones:

∑i=1nXikn=E(Xn),k=1,2,...,m\frac{\sum^n_{i=1} X^k_i}{n} = E(X^n), k = 1,2,...,mn∑i=1n​Xik​​=E(Xn),k=1,2,...,m

Método de Máxima Verosimilitud

Se basa en la idea de hallar los valores de los parámetros que hacen que la probabilidad de obtener una muestra dada sea máxima.

En general, para facilitar las cuentas, se maximiza el logaritmo de la función de verosimilitud (es válido ya que el logaritmo es monótono creciente). Se suele buscar máximos buscando raices de la derivada.

Invarianza de los EMV

Propiedades de estimadores y criterios de selección

Sesgo

  • Principio de estimación insesgada de mínima varianza: utilizar el estimador insesgado de menor varianza. A este se lo denomina IMVU (insesgado de mínima varianza uniforme)

Error

  • Principio de estimación de menor ECM: elegir el estimador de menor ECM. Si los estimadores son insesgados, se reduce al principio de mínima varianza.

Consistencia

Si un estimador es asintóticamente insesgado y su varianza tiende a 0, entonces es consistente.

Sean X1,X2,...,XnX_1, X_2, ..., X_nX1​,X2​,...,Xn​ con función de probabilidad conjunta p_\overrightarrow{X}(x_1,..,x_n) o de densidad conjunta f_\overrightarrow{X}(x_1,..,x_n) que depende de mmmparámetros θ1,..,θm\theta_1,..,\theta_mθ1​,..,θm​. Cuando se observan los valores (x1,..,xn)(x_1,.., x_n)(x1​,..,xn​) y la función de probabilidad o densidad conjunta se considera en función de los parámetros θ1,..,θm\theta_1,..,\theta_mθ1​,..,θm​, se denomina función de verosimilitud y se denomina L(θ1,..,θm)L(\theta_1,..,\theta_m)L(θ1​,..,θm​).

Los estimadores de máxima verosimilitud (EMV) de θ1,..,θm\theta_1,..,\theta_mθ1​,..,θm​ son los valores θ^1,..,θ^m\hat\theta_1,..,\hat\theta_mθ^1​,..,θ^m​ que maximizan la función de verosimilitud.

Sea θ^\hat\thetaθ^el EMV de θ\thetaθy sea hhh una función inyectiva con dominio en el rango de valores de θ\thetaθ, entonces el EMV de h(θ)h(\theta)h(θ)es h(θ^)h(\hat\theta)h(θ^).

Sesgo: b(θ^)=Eθ(θ^)−θb(\hat\theta) = E_\theta(\hat\theta) - \thetab(θ^)=Eθ​(θ^)−θ

Insesgado: si b(θ^)=0b(\hat\theta) = 0b(θ^)=0

Asintóticamente insesgado: Eθ(θ^)→n→∞θE_\theta(\hat\theta) \to_{n\to \infty} \thetaEθ​(θ^)→n→∞​θ

Error std: σθ^=Vθ(θ^)\sigma_{\hat\theta} = \sqrt{V_\theta(\hat\theta)}σθ^​=Vθ​(θ^)​. Si el error standard depende de parámetros desconocidos, éstos se reemplazan por un estimador y se obtiene el error standard estimado.

Error cuadrático medio: ECMθ(θ^)=Eθ[(θ^−θ)2]=Vθ(θ^)−[b(θ^)]2ECM_\theta(\hat\theta) = E_\theta[(\hat\theta - \theta)^2] = V_\theta(\hat\theta) - [b(\hat\theta)]^2ECMθ​(θ^)=Eθ​[(θ^−θ)2]=Vθ​(θ^)−[b(θ^)]2

La sucesión de estimadores θ^n\hat\theta_nθ^n​es consistente si θ^n→pθ\hat\theta_n \to_p \thetaθ^n​→p​θ.