Superposición del sitio

Prueba de normalidad

Prueba de normalidad

Los resultados de la prueba indican si usted debe rechazar o no puede rechazar la hipótesis nula de que los datos provienen de una población distribuida normalmente. Puede realizar una prueba de normalidad y producir una gráfica de probabilidad normal en el mismo análisis. La prueba de normalidad y la gráfica de probabilidad suelen ser las mejores herramientas para evaluar la normalidad.

Prueba de Shapiro-Wilks

Nos basamos sobre todo en la forma de los polígonos de frecuencias. Ahora vamos a introducir un test más formal de normalidad.

El test de Shapiro-Wilks plantea la hipótesis nula que una muestra proviene de una distribución normal. Eligimos un nivel de significanza, por ejemplo 0,05, y tenemos una hipótesis alternativa que sostiene que la distribución no es normal.

Tenemos:

H0: La distribución es normal

H1: La distribución no es normal,

o más formalmente aún:

H0:X∼N(μ,σ2)

H1:X≁N(μ,σ2).

Ahora el test Shapiro-Wilks intenta rechazar la hipotesis nula a nuestro nivel de significanza. Para realizar el test usamos la función shapiro.test en R:Ejemplo (Test de Shapiro Wilks en R)

Grupo.A = c(15, 12, 11, 18, 15, 15, 9, 19, 14, 13, 11, 12, 18, 15, 16, 14, 16, 17, 15, 17, 13, 14, 13, 15, 17, 19, 17, 18, 16, 14)
shapiro.test(Grupo.A)
## 
##  Shapiro-Wilk normality test
## 
## data:  Grupo.A
## W = 0.97032, p-value = 0.548
Grupo.B = c(11, 16, 14, 18, 6, 8, 9, 14, 12, 12, 10, 15, 12, 9, 13, 16, 17, 12, 8, 7, 15, 5, 14, 13, 13, 12, 11, 13, 11, 7)
shapiro.test(Grupo.B)
## 
##  Shapiro-Wilk normality test
## 
## data:  Grupo.B
## W = 0.97636, p-value = 0.7227

Vemos que en ambos casos el valor de probabilidad (p) es muy superios a nuestro nivel elegido (0,05), por lo que no rechazamos la hipótesis nula.

En el caso de los ejemplos 7.1 y 7.2 ya obramos bajo la premisa de que las variables tenían una distribución normal, pero generalmente conviene realizar el test Shapiro-Willks antes de decidir qué prueba estadística vamos a usar. Si rechazamos H0, es decir si no concluimos que la distribución sea normal, no deberíamos usar un test paramétrico.

Test de Jarque-Bera

En estadística, la prueba de Jarque-Bera es una prueba de bondad de ajuste para comprobar si una muestra de datos tiene la asimetría y la curtosis de una distribución normal. La prueba recibe el nombre de Carlos Jarque y Anil K. Bera.

La prueba estadística JB se define como:{\displaystyle {\mathit {JB}}={\frac {n}{6}}\left(S^{2}+{\frac {1}{4}}(K-3)^{2}\right)}

donde n es el número de observaciones (o grados de libertad en general); S es la asimetría de la muestra, K la curtosis de la muestra :{\displaystyle S={\frac {{\hat {\mu }}_{3}}{{\hat {\sigma }}^{3}}}={\frac {{\frac {1}{n}}\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{3}}{\left({\frac {1}{n}}\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}\right)^{3/2}}},}{\displaystyle K={\frac {{\hat {\mu }}_{4}}{{\hat {\sigma }}^{4}}}={\frac {{\frac {1}{n}}\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{4}}{\left({\frac {1}{n}}\sum _{i=1}^{n}(x_{i}-{\bar {x}})^{2}\right)^{2}}},}

donde {\displaystyle {\hat {\mu }}_{3}} y {\displaystyle {\hat {\mu }}_{4}} son las estimaciones de los momentos centrales tercer y cuarto, respectivamente, \bar{x} es la media de la muestra y {\displaystyle {\hat {\sigma }}^{2}} es la estimación del segundo momento central, la varianza.

El estadístico de Jarque-Bera se distribuye asintóticamente como una distribución chi cuadrado con dos grados de libertad y puede usarse para probar la hipótesis nula de que los datos pertenecen a una distribución normal. La hipótesis nula es una hipótesis conjunta de que la asimetría y el exceso de curtosis son nulos (asimetría = 0 y curtosis = 3). La prueba se puede utilizar en Modelos de Regresión para probar la hipótesis de Normalidad de los residuos. Para ello se utilizan los residuos estimados obtenidos por mínimos cuadrados. Los puntos críticos para muestras pequeñas se pueden calcular vía Monte Carlo.

PRUEBA DE KOLMOGOROV-SMIRNOV

Cuando la prueba Kolmogorov-Smirnov kolmogorov se aplica para contrastar la hipótesis de normalidad de la población, el estadístico de prueba es la máxima diferencia:

siendo Fn(x) la función de distribución muestral y Fo(x) la función teórica o correspondiente a la población normal especificada en la hipótesis nula.

La distribución del estadístico de Kolmogorov-Smirnov es independiente de la distribución poblacional especificada en la hipótesis nula y los valores críticos de este estadístico están tabulados. Si la distribución postulada es la normal y se estiman sus parámetros, los valores críticos se obtienen aplicando la corrección de significación propuesta por Lilliefors.

Abrir chat
Hable EN VIVO con un Profesor
A %d blogueros les gusta esto: