Ejemplo:
Una empresa produce componentes eléctricos y el interés es medir la vida útil del componente (en años). Suponemos que la vida útil de los componentes sigue una distribución exponencial con parámetro \(\beta>0\).
\[f(y)= \begin{cases}\frac{1}{\beta} e^{-y/\beta}, & 0 < y < \infty, \\ 0, & y \leq 0, \end{cases}\] - Si \(\beta\) fuera conocida, conocemos el comportamiento de la vida útil del componente, por ende, podemos calcular diferentes medidas y probabilidades.
Definición: Un modelo estadístico consiste en una identificación de variables aleatorias de interés, la especificación de una distribución conjunta, o una familia de posibles distribuciones conjuntas para unas variables aleatorias observables, la identificación de uno o varios parámetros de dichas distribuciones son desconocidas.
Ejemplos: Para el caso de componentes eléctricos, se tienen las variables aleatorias \(Y_1,...,Y_n\) cuya distribución conjunta es:
\[f(y_1,...,y_n|\beta)= \prod_{i=1}^n f(y_i|\beta),\]
en donde \(f(y_i)\) es la densidad de la distribución exponencial con parámetro \(\beta>0\), i.e.
\[f(y)= \begin{cases}\frac{1}{\beta} e^{-y/\beta}, & 0 < y < \infty, \\ 0, & y \leq 0. \end{cases}\]
La familia de posibles distribuciones conjuntas es \[ \left\lbrace f(y_1,...,y_n|\beta), \beta >0 \right\rbrace. \]
Ejercicio (caso discreto):
En una urna con \(120\) bolas se encuentran bolas de color rojo y azul únicamente. El interés es conocer la proporción (desconocida) de bolas rojas, denotada por \(p\).
Sabemos que \(p \in [0,1]\).
Sea \(Y_1,Y_2,...,Y_n\), una secuencia de observaciones con reemplazo que denote 1 como roja y 0 como azul.
Identifique el modelo estadístico.
Definición: La inferencia estadística es el procedimiento de producir afirmaciones probabilísticas sobre alguna (o toda) parte del modelo estadístico.
Definición: La estadística paramétrica consiste en realizar inferencia cuando el modelo estadístico puede ser representado por medio de uno o varios (finitos) parámetros desconocidos de una distribución.
Definición: dos definiciones informales de la estadística no paramétrica:
Ejemplos:
-El ejemplo de componentes eléctricos corresponde a estadística paramétrica.
Sea \(X_{1}, \ldots, X_{n}\) una m.a. cuya distribución poblacional tiene media \(\mu\) y varianza \(\sigma^{2}\). Definan la media muestral y la Varianza muestral:
\[\bar{X}_{n}=\bar {X}=\sum_{i=1}^n \frac{X_i}{n}, ~~~\text{y}~~~ S^{2} = \frac{\sum_{i=1}^n{\left(X_{j}-\bar{X}\right)^2}}{n-1}.\]
Entonces,
\(E\left(\overline{X}_{n}\right)=\mu\) y \(\operatorname{Var}\left(\bar{X}_{n}\right)=\frac{\sigma^{2}}{n}\)
¿Qué se sabe sobre la variancia muestral?
\[\begin{eqnarray*} E\left(S^2\right)&=& E\left[\frac{\sum{\left(X_{j}-\overline{X}\right)^2}}{n-1}\right] = \frac{1}{n-1}E\left[\sum{\left[\left(X_{j}-\mu\right)-\left(\overline{X}-\mu\right)\right]^2}\right] \\ &=& \frac{1}{n-1}E\left[\sum{\left[\left(X_{j}-\mu\right)^{2}-2\left(X_{j}-\mu\right)\left(\overline{X}-\mu\right) + \left(\overline{X}-\mu\right)^{2} \right]}\right] \\ &=&\frac{1}{n-1}E\left[\sum{\left(X_{j}-\mu\right)^{2}}-2\left(\overline{X}-\mu\right)\sum{\left(X_{j}-\mu\right)} + \sum{\left(\overline{X}-\mu\right)^{2}}\right] \\ &=&\frac{1}{n-1}E\left[\sum{\left(X_{j}-\mu\right)^{2}}-2n\left(\overline{X}-\mu\right)^2 + n\left(\overline{X}-\mu\right)^{2}\right] \\ &=& \frac{1}{n-1}\left[\sum{E\left[\left(X_{j}-\mu\right)^{2}\right]}-nE\left[\left(\overline{X}-\mu\right)^2\right]\right] \\ &=& \frac{1}{n-1}\left(n\sigma^{2} - n\frac{\sigma^2}{n}\right)=\frac{1}{n-1}\left(n\sigma^{2} - \sigma^{2}\right)=\frac{\sigma^{2}\left(n-1\right)}{n-1}=\sigma^2 \end{eqnarray*}\]
Si \(X\) es una v.a. tal que \(\operatorname{Pr}(X \geq 0)=1\). Entonces para cada número real \(t>0\), se tiene que
\[\begin{equation} \operatorname{Pr}(X \geq t) \leq \frac{E(X)}{t}. \end{equation}\]Si \(X\) es una v.a. que cumple que \(\operatorname{Var}(X)\) existe. Entonces para cada número \(t>0\)
\[ \operatorname{Pr}(|X-E(X)| \geq t) \leq \frac{\operatorname{Var}(X)}{t^{2}}. \]
Decimos que una secuencia de v.a. \(Z_{1}, Z_{2}, \ldots\) converge a \(b\) en probabilidad si para cada número \(\varepsilon>0\),
\[\lim _{n \rightarrow \infty} \operatorname{Pr}\left(\left|Z_{n}-b\right|<\varepsilon\right)=1\]
Esta propiedad se denota como
\[ Z_{n} \stackrel{p}{\longrightarrow} b. \]
Suponga que \(X_{1}, \ldots, X_{n}\) es una muestra de una distribución con media \(\mu\) y varianza finita. Sea \(\bar{X}_{n}\) la media muestral. Entonces, \[\begin{equation*} \bar{X}_{n} \stackrel{p}{\longrightarrow} \mu \end{equation*}\]
¿Cómo se puede probar este resultado usando la desigualdad de Chebyshev?
Suponga que se tienen una secuencia de funciones de distribución \(F_1, \ldots, F_n, \ldots\) para la secuencia de v.a. \(X_1,\ldots,X_n,\ldots\). Se dice que la secuencia de v.a. \(X_1,\ldots,X_n,\ldots\) converge en distribución a \(X^*\), cuya función de distribución es \(F^*\), si
\[\begin{equation*} \lim _{n \rightarrow \infty} F_{n}(x)=F^{*}(x). \end{equation*}\] Se denota también como \[\begin{equation*} X_n \stackrel{d}{\longrightarrow} X^*. \end{equation*}\]
Si \(X_1,\ldots, X_n\) es una muestra aleatoria de tamaño \(n\), y la distribución tiene media \(\mu\) y varianza \(0<\sigma^2< \infty\). Entonces se cumple que
\[Z_{n} = \frac{\overline{X}_n-\mu}{\frac{\sigma}{\sqrt{n}}} \stackrel{d}{\longrightarrow} N\left(0,1\right) \quad si\quad n \rightarrow \infty\] o lo que es equivalente \[\overline{X}_n \xrightarrow{\text{d}} N\left(\mu, \frac{\sigma^2}{n}\right) \quad si\quad n \rightarrow \infty.\]
Se puede probar que \[\begin{equation*} \text{Convergencia en Probabilidad} \implies \text{Convergencia en distribución} \end{equation*}\]
Para un resumen más detallado, les dejo este video donde se explica mucho mejor
https://www.youtube.com/watch?v=bTMnnrw0v2Y