Capítulo 4 Análisis de estadística paramétrica y no paramétrica
El análisis de estadística paramétrica y no paramétrica comprende un conjunto de técnicas inferenciales utilizadas para contrastar hipótesis y evaluar relaciones entre variables.
La estadística paramétrica se basa en supuestos específicos sobre la distribución de los datos, como la normalidad y la homogeneidad de varianzas, lo que permite aplicar pruebas como la t de Student, ANOVA y pruebas de proporciones.
Por su parte, la estadística no paramétrica ofrece métodos alternativos que no requieren dichos supuestos estrictos, siendo útiles cuando los datos no cumplen condiciones de normalidad o se trata de escalas ordinales. Este enfoque incluye pruebas como la de Wilcoxon, Mann-Whitney, Kruskal-Wallis y Chi-cuadrado. Ambos enfoques permiten tomar decisiones estadísticas robustas y fundamentadas, adaptándose a la naturaleza de los datos analizados.
4.1 Comparación de medias entre dos grupos independientes con estadística paramétrica
Una de las estrategias más empleadas al comparar una variable cuantitativa entre dos grupos independientes es el contraste de medias. No obstante, observar diferencias en los promedios muestrales no implica automáticamente que exista una diferencia estadísticamente significativa a nivel poblacional. Esto se debe a que cada grupo presenta su propia variabilidad (varianza intrínseca), lo cual puede generar diferencias aparentes por el simple azar muestral.
Para evaluar si la diferencia observada es estadísticamente significativa, se recurre a pruebas paramétricas como el test \(Z\) (cuando se conoce la desviación estándar poblacional y los tamaños muestrales son grandes) o, más comúnmente, al t-test de Student, que es aplicable cuando las desviaciones estándar poblacionales son desconocidas.
Este tipo de pruebas permite:
Realizar pruebas de hipótesis, bajo la formulación:
\[ H_0: \mu_1 = \mu_2 \quad \text{vs} \quad H_a: \mu_1 \ne \mu_2 \]
Construir intervalos de confianza para estimar la diferencia real entre las medias poblacionales con un nivel de confianza específico (por ejemplo, 95%).
4.1.1 Condiciones del t-test para muestras independientes
Para que los resultados del t-test sean válidos, deben cumplirse las siguientes condiciones:
Independencia: Las observaciones dentro y entre los grupos deben ser independientes. Esto se garantiza si el muestreo es aleatorio y si el tamaño muestral no supera el 10% de la población (cuando no se hace con reemplazo).
Normalidad: Las poblaciones deben seguir una distribución normal. Si bien esta condición se formula sobre las poblaciones, en la práctica se evalúa con las muestras. La prueba es robusta frente a desviaciones moderadas de normalidad si cada grupo tiene al menos 30 observaciones, gracias al Teorema del Límite Central.
Homogeneidad de varianzas (homocedasticidad): Se asume que ambas poblaciones tienen varianzas iguales. Esta condición puede ser verificada con pruebas como Levene o F de Fisher o Bartless. Si no se cumple, se utiliza una versión alternativa del t-test: el Welch Two Sample t-test, que ajusta los grados de libertad para corregir esta desigualdad, aunque con una ligera pérdida de precisión.
4.1.2 Grados de libertad
En el t-test clásico (varianzas iguales):
\[df = n_1 + n_2 - 2\]
En el t-test de Welch (varianzas desiguales), los grados de libertad se aproximan con:
\[df \approx \frac{ \left( \frac{s_1^2}{n_1} + \frac{s_2^2}{n_2} \right)^2 }{ \frac{ \left( \frac{s_1^2}{n_1} \right)^2 }{n_1 - 1} + \frac{ \left( \frac{s_2^2}{n_2} \right)^2 }{n_2 - 1} }\]
4.1.3 Error estándar de la diferencia de medias
El error estándar (SE) para comparar dos medias es:
\[SE = \sqrt{ \frac{s_1^2}{n_1} + \frac{s_2^2}{n_2} }\]
Este valor se utiliza tanto para construir intervalos de confianza como para calcular el estadístico de prueba:
\[t = \frac{\bar{x}_1 - \bar{x}_2}{SE}\]
Cuando se cumplen las condiciones mencionadas, se puede considerar que la diferencia de medias muestrales sigue una distribución t de Student con los grados de libertad apropiados. En consecuencia, los t-scores reemplazan a los z-scores en los cálculos, ajustando así los valores críticos a la incertidumbre inherente al tamaño muestral.
Este enfoque proporciona una herramienta poderosa para evaluar efectos de tratamientos, diferencias entre grupos y pruebas de efectividad, en una amplia gama de contextos experimentales y observacionales.
4.1.4 Tamaño del Efecto (Effect Size) en comparaciones de medias
El tamaño del efecto es una medida que cuantifica la magnitud de la diferencia observada entre grupos, sin depender del tamaño muestral ni de la inferencia estadística. A diferencia de los p-values, que únicamente indican si la diferencia es estadísticamente significativa bajo una hipótesis nula, el tamaño del efecto ofrece una medida de relevancia práctica o importancia clínica de los resultados.
En contextos de comparación de medias mediante t-tests para muestras independientes, dos de las métricas más utilizadas para estimar el tamaño del efecto son:
- La d de Cohen representa la diferencia estandarizada entre medias, es decir, cuántas desviaciones estándar separan en promedio los grupos comparados:
\[d = \frac{|\bar{X}_1 - \bar{X}_2|}{s_p},\]
donde \(s_p\) es la desviación estándar combinada. Existen dos formas comunes de calcularla:
La primera es desviación estándar ponderada:
\[s_p = \sqrt{ \frac{(n_1 - 1)s_1^2 + (n_2 - 1)s_2^2}{n_1 + n_2 - 2} }\] y se usa cuando asumes que las varianzas de los dos grupos son iguales.
La segunda es el promedio cuadrático simple:
\[s_p = \sqrt{ \frac{s_1^2 + s_2^2}{2} }\] y se usa cuando asumes que las varianzas de los dos grupos son iguales.
Además, la interpretacion de valores de \(d\) es:
- \(d \leq 0.2\): tamaño del efecto pequeño
- \(d \approx 0.5\): tamaño del efecto mediano
- \(d \geq 0.8\): tamaño del efecto grande
- \(r\) de Pearson (para t-test)
Este coeficiente mide la fuerza de asociación entre una variable categórica binaria (grupo) y una variable continua:
\[r = \sqrt{ \frac{t^2}{t^2 + gl} }\]
donde:
- \(t\) es el estadístico del t-test.
- \(gl\) son los grados de libertad.
La interpretación de valores de \(r\):
- \(r \leq 0.1\): tamaño del efecto pequeño
- \(r \geq 0.3\): tamaño del efecto mediano
- \(r \geq 0.5\): tamaño del efecto grande
Se ha recolectado una muestra aleatoria de pacientes para evaluar sus niveles de presión arterial. En el archivo datos_medicos.xlsx se encuentran registradas dos variables continuas: PresionSistolica y PresionDiastolica, correspondientes a la presión sistólica y diastólica de cada individuo, respectivamente.
Con base en esta información, verifique si existe o no una diferencia significativa entre la presión sistólica y la diastólica en la muestra analizada, y si esta diferencia es relevante desde el punto de vista práctico.
Solución
- Carguemos los datos
Code
## # A tibble: 6 × 2
## Presion Valores
## <chr> <dbl>
## 1 PresionSistolica 114.
## 2 PresionSistolica 118.
## 3 PresionSistolica 136.
## 4 PresionSistolica 121.
## 5 PresionSistolica 121.
## 6 PresionSistolica 137.
Realiza el análisis exploratorio del conjunto de datos
- Verifiquemos si los datos tiene comportamiento normal
Code
##
## Asymptotic one-sample Kolmogorov-Smirnov test
##
## data: scale(dfps$Valores)
## D = 0.058097, p-value = 0.8884
## alternative hypothesis: two-sided
##
## Asymptotic one-sample Kolmogorov-Smirnov test
##
## data: scale(dfpd$Valores)
## D = 0.057927, p-value = 0.8905
## alternative hypothesis: two-sided
Con una confianza del \(95\%\), vemos que las distribuciones de la presión sistolica (\(D = 0.058097, p-valor = 0.8884\)) y presión diastolica (\(D = 0.057927, p-valor = 0.8905\)) proviene de una distribución normal
- Verifiquemos igualdad de varianzas (homocedasticidad):
##
## F test to compare two variances
##
## data: dfps$Valores and dfpd$Valores
## F = 0.92784, num df = 99, denom df = 99, p-value = 0.7102
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.6242897 1.3789878
## sample estimates:
## ratio of variances
## 0.9278405
Con una confianza del \(95\%\), vemos que no diferencias estadísticamente significativa en las varianzas de la presión sistolica y diastolica (\(F_{(99,99)}=0.92784, p-valor=0.7102\)).
Si \(s_1^2\) y \(s_2^2\) son las varianzas de muestras aleatorias independientes de tamaño \(n_1\) y \(n_2\), tomadas de poblaciones normales con varianzas \(\sigma_1^2\) y \(\sigma_2^2\), respectivamente, entonces, una prueba de hipótesis con nivel de significancia \(\alpha\) para la razón de varianzas \(\sigma_1^2 / \sigma_2^2\) se basa en el siguiente estadístico de prueba:
\[ F = \frac{s_1^2}{s_2^2} \]
donde \(F\) se distribuye como una variable aleatoria con distribución \(F\) de Fisher-Snedecor con \(v_1 = n_1 - 1\) y \(v_2 = n_2 - 1\) grados de libertad.
Además, un intervalo de confianza bilateral al nivel \(1 - \alpha\) para la razón de varianzas \(\sigma_1^2 / \sigma_2^2\) está dado por:
\[ \left( \frac{s_1^2}{s_2^2} \cdot \frac{1}{F_{1 - \alpha/2}(v_1, v_2)},\ \frac{s_1^2}{s_2^2} \cdot \frac{1}{F_{\alpha/2}(v_1, v_2)} \right) \]
donde \(F_{\alpha/2}(v_1, v_2)\) y \(F_{1 - \alpha/2}(v_1, v_2)\) son los cuantiles de la distribución F que dejan un área de \(\alpha/2\) en las colas derecha e izquierda, respectivamente.
Usando el teorema de razón de varianzas verifica la salida de la función var.test con los datos de presión arterial.
4.1.4.1 Paso a paso igualdad de varianzas
En el video pueden ver la homocedasticidad usando la función var.test y haciendo paso a paso con el teorema de razón de varianzas.
- Veamos si hay diferencia significativas o no en el promedio de la presión sistolica y diastolica.
Code
##
## Two Sample t-test
##
## data: dfps$Valores and dfpd$Valores
## t = 31.888, df = 198, p-value < 2.2e-16
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## 39.36328 44.55275
## sample estimates:
## mean of x mean of y
## 120.90406 78.94604
La prueba \(t\) para muestras independientes nos indica que con una confianza del 95%, se concluye que existe una diferencia estadísticamente significativa entre las medias de la presión sistólica y la presión diastólica (\(t_{(198)} = 31.888, p-valor < 0.001\)).
- Veamos el calculo del tamaño del efecto
##
## Cohen's d
##
## d estimate: 4.509702 (large)
## 95 percent confidence interval:
## lower upper
## 3.984821 5.034583
Con base en el resultado del índice de Cohen’s d, se obtiene un valor estimado de \(4.51\) (\(IC_{95\%}=(3.98,5.03)\)), lo que indica un tamaño del efecto extremadamente grande. Esto indica que dicha diferencia no solo es estadísticamente significativa, sino también altamente relevante desde el punto de vista práctico o clínico.
Sea \(\bar{X}_1\) y \(\bar{X}_2\) las medias muestrales de dos poblaciones independientes, con tamaños \(n_1\) y \(n_2\), y varianzas poblacionales iguales \(\sigma_1^2 = \sigma_2^2 = \sigma^2\). Si ambas poblaciones siguen una distribución normal, o si los tamaños muestrales son suficientemente grandes (por el teorema central del límite), entonces la estadística de prueba para contrastar la hipótesis nula:
\[ H_0 : \mu_1 = \mu_2 \quad \text{vs} \quad H_1 : \mu_1 \neq \mu_2 \]
está dada por:
\[ t = \frac{\bar{X}_1 - \bar{X}_2}{\sqrt{S_p^2 \left( \frac{1}{n_1} + \frac{1}{n_2} \right)}} \]
donde \(S_p^2\) es la varianza combinada (pooled variance), definida como:
\[ S_p^2 = \frac{(n_1 - 1)S_1^2 + (n_2 - 1)S_2^2}{n_1 + n_2 - 2} \]
y \(S_1^2\) y \(S_2^2\) son las varianzas muestrales.
Esta estadística sigue una distribución t de Student con \(n_1 + n_2 - 2\) grados de libertad.
Además, un intervalo de confianza al nivel \(1 - \alpha\) para la diferencia de medias \(\mu_1 - \mu_2\) está dado por:
\[ \left( (\bar{X}_1 - \bar{X}_2) \pm t_{(1 - \alpha/2,\; n_1 + n_2 - 2)} \cdot \sqrt{S_p^2 \left( \frac{1}{n_1} + \frac{1}{n_2} \right)} \right) \]
-
Usando el teorema de la diferencia de medias verifica la salida de la función
t.testcon los datos de presión arterial. - Aplica el teorema de diferencia de medias con la distribución normal.
Se ha recolectado una muestra aleatoria de cuentas clasificadas en dos tipos: Inversión y Ganancia, con el fin de evaluar si existe una diferencia significativa en el valor promedio de los precios registrados. En la variable Precio se encuentra el valor económico asociado a cada cuenta. En el archivo datos_economia.xlsx
Con base en esta información, se propone realizar una prueba estadística para determinar si hay diferencia significativa entre los promedios de precio según el tipo de cuenta, y evaluar si dicha diferencia es relevante desde el punto de vista práctico.
Este análisis permitirá tomar decisiones fundamentadas sobre las políticas financieras relacionadas con los tipos de cuenta manejados por la institución.
Solución
- Carguemos los datos
Code
## # A tibble: 6 × 2
## `Tipo de cuenta` Precio
## <chr> <dbl>
## 1 Inversion 4439524.
## 2 Inversion 4769823.
## 3 Inversion 6558708.
## 4 Inversion 5070508.
## 5 Inversion 5129288.
## 6 Inversion 6715065.
Realiza el análisis exploratorio del conjunto de datos
- Verifiquemos si los datos tiene comportamiento normal
Code
##
## Asymptotic one-sample Kolmogorov-Smirnov test
##
## data: scale(inversion)
## D = 0.058097, p-value = 0.8884
## alternative hypothesis: two-sided
##
## Asymptotic one-sample Kolmogorov-Smirnov test
##
## data: scale(ganancia)
## D = 0.057927, p-value = 0.8905
## alternative hypothesis: two-sided
Con una confianza del \(95\%\), vemos que las distribuciones de la inversión (\(D = 0.058097, p-valor = 0.8884\)) y la ganancia (\(D = 0.057927, p-valor = 0.8905\)) proviene de una distribución normal
- Verifiquemos igualdad de varianzas (homocedasticidad):
##
## F test to compare two variances
##
## data: Precio by Tipo de cuenta
## F = 0.044888, num df = 99, denom df = 99, p-value < 2.2e-16
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.03020281 0.06671472
## sample estimates:
## ratio of variances
## 0.04488844
Con una confianza del \(95\%\), vemos que hay diferencias estadísticamente significativa en las varianzas (\(F_{(99,99)}=0.044, p-valor < 0.001\)).
Aplica las pruebas de Bartlett, Levene y Fligner-Killeen, explica detalladamente cada prueba y cual distribución usa y despues interpreta el resultado.
- Veamos si hay diferencia significativas o no en el promedio de la presión sistolica y diastolica.
##
## Welch Two Sample t-test
##
## data: inversion and ganancia
## t = 46.212, df = 107.87, p-value < 2.2e-16
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## 4126960 4496870
## sample estimates:
## mean of x mean of y
## 5090405.9 778490.6
La prueba de Welch para muestras independientes nos indica que con una confianza del 95%, se concluye que existe una diferencia estadísticamente significativa entre las medias de la presión sistólica y la presión diastólica (\(t_{(107.87)} = 46.212, p-valor < 0.001\)).
- Veamos el calculo del tamaño del efecto
##
## Cohen's d
##
## d estimate: 6.535323 (large)
## 95 percent confidence interval:
## lower upper
## 5.833174 7.237472
Con base en el resultado del índice de Cohen’s d, se obtiene un valor estimado de \(6.53\) (\(IC_{95\%}=(5.83,7.23)\)), lo que indica un tamaño del efecto extremadamente grande. Esto indica que dicha diferencia no solo es estadísticamente significativa, sino también altamente relevante en el tipo de cuenta.
4.2 Comparación de medias entre dos grupos pareados con estadística paramétrica
Dos medias se consideran dependientes o pareadas cuando provienen de muestras relacionadas, es decir, cuando existe una correspondencia directa entre las observaciones de ambos grupos. Este tipo de diseño es común cuando las mediciones se realizan sobre los mismos individuos bajo dos condiciones diferentes.
4.2.0.1 Ejemplos comunes
- Comparar el rendimiento de estudiantes en dos pruebas distintas (por ejemplo, lectura y escritura).
- Evaluar el efecto de un tratamiento médico comparando una variable antes y después del tratamiento en los mismos pacientes.
En este contexto, para determinar si hay una diferencia significativa entre las condiciones \(X\) e \(Y\), se calcula para cada individuo la diferencia:
\[d_i = x_i - y_i\]
Aunque la hipótesis nula plantee que no existe diferencia (es decir, que \(\mu_X = \mu_Y\)), debido a la variabilidad natural entre observaciones, las diferencias individuales \(d_i\) no serán exactamente cero. No obstante, si no hay efecto sistemático, el promedio de estas diferencias tenderá a cero por compensación aleatoria:
\[\bar{d} = \frac{1}{n} \sum_{i=1}^{n} (x_i - y_i)\]
El análisis se centra en evaluar si este promedio de diferencias es significativamente distinto de cero, utilizando una prueba t de muestras pareadas.
4.2.1 Supuestos del t-test para muestras dependientes
- Normalidad: Se asume que las diferencias \(d_i\) provienen de una distribución normal. Este supuesto puede evaluarse a partir de la muestra si no se tiene información poblacional.
- Igualdad de varianzas: No es necesario que las varianzas de los grupos originales sean iguales (no se requiere homocedasticidad).
Si los supuestos se cumplen, se puede considerar que:
\[ d_i \sim \mathcal{N}(\mu_d, \sigma_d^2) \]
Como en la mayoría de situaciones de inferencia estadística, los parámetros poblacionales son desconocidos, por lo que se estiman a partir de la muestra. Bajo estos supuestos, se tiene:
\[ \bar{d} \sim \mathcal{N}(\mu_d, \hat{\sigma}_d^2) \]
donde \(\bar{d}\) es el promedio muestral de las diferencias y \(\hat{\sigma}_d^2\) es la varianza muestral de dichas diferencias.
El test \(t\) pareado se utiliza para verificar la hipótesis:
\[ H_0: \mu_d = 0 \quad \text{vs} \quad H_1: \mu_d \neq 0 \]
La estadística de prueba está dada por:
\[ t = \frac{\bar{d}}{s_d / \sqrt{n}} \sim t_{n-1} \]
donde
- \(\bar{d}\): media de las diferencias
- \(s_d\): desviación estándar de las diferencias
- \(n\): número de pares
Una institución educativa implementa una nueva estrategia de enseñanza con el objetivo de mejorar el desempeño de los estudiantes en una prueba estandarizada. Para evaluar su efectividad, se selecciona aleatoriamente una muestra de 10 estudiantes y se registra su tiempo (en segundos) para completar una tarea cognitiva específica al inicio del periodo académico. Al finalizar el año, se repite la misma medición con los mismos estudiantes.
Este diseño corresponde a un esquema de medidas pareadas, ya que las observaciones antes y después de la intervención se realizan sobre los mismos individuos. Por tanto, el análisis estadístico adecuado consiste en aplicar una prueba t para muestras dependientes, que permita evaluar si la estrategia implementada produjo un cambio significativo en el desempeño de los estudiantes.
Code
Con base en estas mediciones, se procederá a aplicar la prueba estadística para determinar si existe evidencia significativa de mejora en los tiempos registrados tras la implementación de la nueva metodología.
Solución
Realiza el análisis exploratorio del conjunto de datos
- Veamos si los datos tiene comportamiento normal:
##
## Shapiro-Wilk normality test
##
## data: datos$antes
## W = 0.94444, p-value = 0.6033
##
## Shapiro-Wilk normality test
##
## data: datos$despues
## W = 0.93638, p-value = 0.5135
La prueba de Shapiro_Will, nos muestra que la intervención de antes (\(W = 0.9444, p-valor = 0.6033\)) y despues (\(W = 0.93638, p-valor = 0.5135\)) tienen comportamiento normal.
- Veamos si hay diferencia significativas en los promedios de las intervenciones de antes y despues
##
## Paired t-test
##
## data: datos$despues and datos$antes
## t = 0.21331, df = 9, p-value = 0.8358
## alternative hypothesis: true mean difference is not equal to 0
## 95 percent confidence interval:
## -0.4802549 0.5802549
## sample estimates:
## mean difference
## 0.05
La prueba \(t\) nos indica que no hay diferencias estadísticamente significativa en los promedios de las intervenciones de antes y despues (\(t_{(9)}=0.2133, p-valor = 0.8358\))
Usando el teorema de la diferencia de medias para datos pareados verifica la salida de la función t.test con los datos de la intervención educativa
- Calculemos el tamaño del efecto
##
## Cohen's d
##
## d estimate: -0.0169815 (negligible)
## 95 percent confidence interval:
## lower upper
## -0.1842481 0.1502851
El resultado del tamaño del efecto calculado mediante Cohen’s d para muestras pareadas fue de \(-0.017\) (\(IC_{95\%}=(-0.184,0.150)\)), lo cual es prácticamente inexistente desde el punto de vista práctico. El intervalo de confianza nos confirma que no hay evidencia de un cambio significativo ni relevante en los tiempos registrados antes y después de la intervención.
4.3 Comparación de dos grupos independientes con estadística no paramétrica
El test de Mann–Whitney–Wilcoxon (WMW), también conocido como Wilcoxon rank-sum test o U-test de Mann–Whitney, es una prueba estadística no paramétrica utilizada para comparar dos muestras independientes. Su objetivo es determinar si ambas proceden de poblaciones con distribuciones similares, sin asumir normalidad ni trabajar directamente con las medias, como ocurre en los test t.
4.3.1 Fundamento conceptual
La idea central del test es la siguiente: si dos muestras provienen de poblaciones con la misma distribución, al combinar todas las observaciones y ordenarlas de menor a mayor, se esperaría que los valores de ambas muestras estén aleatoriamente intercalados. En cambio, si una de las muestras tiende a tener valores sistemáticamente mayores o menores, sus observaciones tenderán a agruparse hacia un extremo del ordenamiento.
Desde una perspectiva probabilística, el test contrasta si la probabilidad de que una observación de una población sea mayor que una de la otra es igual a 0.5:
\[ H_0: P(X > Y) = 0.5 \quad \text{(no hay diferencia entre grupos)} \] \[ H_1: P(X > Y) \neq 0.5 \quad \text{(hay diferencia entre grupos)} \]
Este planteamiento no presupone normalidad ni igualdad de medias, sino que se basa en la equidistribución de las poblaciones.
4.3.1.1 Interpretación y alcance
Aunque es frecuente leer que el test de Mann–Whitney–Wilcoxon compara medianas, esta interpretación solo es válida si ambas poblaciones tienen la misma forma de distribución (es decir, misma asimetría y varianza). En general, lo que el test evalúa es una diferencia en tendencias centrales sin especificar la medida exacta (media o mediana).
Si bien se suele afirmar que el test de Mann–Whitney–Wilcoxon compara medianas, esto es estrictamente cierto solo cuando ambas poblaciones tienen la misma forma de distribución. Es decir, se requiere que presenten igual dispersión, simetría y curtosis.
En ese caso, una diferencia en la ubicación central puede interpretarse como una diferencia de medianas. Sin embargo, si las distribuciones difieren en forma, el test detecta diferencias en la distribución global, y no exclusivamente en la mediana.
Por tanto, el test WMW evalúa diferencias en localización general, y su interpretación como comparación de medianas debe hacerse con cautela, y solo bajo condiciones que aseguren homogeneidad de forma entre grupos.
4.3.2 Comparación con el test t
El test WMW suele ser menos potente que el t-test cuando los supuestos del análisis paramétrico se cumplen (la pérdida de potencia se estima en torno al 5%). Esto se debe a que el WMW trabaja con rangos y no con valores reales, lo que reduce su sensibilidad frente a diferencias pequeñas. Sin embargo, esta misma característica le confiere mayor robustez ante valores atípicos y violaciones de normalidad, convirtiéndolo en una alternativa preferible en contextos donde los datos no cumplen los supuestos clásicos.
4.3.3 Supuestos y condiciones de aplicación
Para aplicar correctamente el test de Mann–Whitney–Wilcoxon se deben cumplir las siguientes condiciones:
- Independencia de las observaciones entre los dos grupos.
- Los datos deben ser al menos ordinales, es decir, deben poder ordenarse de menor a mayor.
- No se requiere normalidad ni homocedasticidad estricta.
- Para interpretar el test como una comparación de medianas, se requiere que ambas poblaciones tengan distribuciones con forma similar (igual dispersión y simetría).
- Es preferible que las muestras tengan tamaños comparables, aunque no es obligatorio.
El test de Mann–Whitney–Wilcoxon es una herramienta flexible y robusta para comparar dos muestras independientes cuando no se puede asumir normalidad o cuando existen valores extremos. A cambio de una ligera pérdida de potencia frente al test t, ofrece mayor fiabilidad en contextos no paramétricos y mantiene una base sólida para contrastar diferencias de ubicación entre grupos.
Se ha recolectado una muestra representativa de nacimientos contenida en el conjunto de datos births, disponible en el paquete openintro de R. Dentro de este conjunto, se encuentran registradas variables como el peso al nacer (en onzas) y si la madre fumó o no durante el embarazo (variable categórica smoke: “yes” o “no”).
Con base en esta información, verifique si existe o no una diferencia significativa en el peso al nacer entre los recién nacidos cuyas madres fumaron durante el embarazo y aquellos cuyas madres no lo hicieron. Además, evalúe si esta diferencia es relevante desde el punto de vista práctico.
Solución
- Carguemos los datos
Code
## # A tibble: 6 × 9
## f_age m_age weeks premature visits gained weight sex_baby smoke
## <int> <int> <int> <fct> <int> <int> <dbl> <fct> <fct>
## 1 31 30 39 full term 13 1 6.88 male smoker
## 2 34 36 39 full term 5 35 7.69 male nonsmoker
## 3 36 35 40 full term 12 29 8.88 male nonsmoker
## 4 41 40 40 full term 13 30 9 female nonsmoker
## 5 42 37 40 full term NA 10 7.94 male nonsmoker
## 6 37 28 40 full term 12 35 8.25 male smoker
Realiza el análisis exploratorio del conjunto de datos
- Veamos si tienen comportamiento normal
Code
library(nortest)
df %>%
group_by(smoke) %>%
summarise(n = length(weight),
est_ks = ks.test(scale(weight),'pnorm')$statistic,
p_ks = ks.test(scale(weight),'pnorm')$p.value,
estsw = shapiro.test(weight)$statistic,
p_sw = shapiro.test(weight)$p.value,
est_lt = lillie.test(weight)$statistic,
p_lt = lillie.test(weight)$p.value)## Warning: There were 4 warnings in `summarise()`.
## The first warning was:
## ℹ In argument: `est_ks = ks.test(scale(weight), "pnorm")$statistic`.
## ℹ In group 1: `smoke = nonsmoker`.
## Caused by warning in `ks.test.default()`:
## ! ties should not be present for the one-sample Kolmogorov-Smirnov test
## ℹ Run `dplyr::last_dplyr_warnings()` to see the 3 remaining warnings.
## # A tibble: 2 × 8
## smoke n est_ks p_ks estsw p_sw est_lt p_lt
## <fct> <int> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 nonsmoker 100 0.132 0.0604 0.924 0.0000223 0.132 0.000184
## 2 smoker 50 0.125 0.413 0.895 0.000328 0.125 0.0484
El test de Lilliefors evidencia que el peso de los recién nacidos no presenta un comportamiento normal en ninguno de los grupos analizados. En el caso de los hijos de madres que no fuman(\(Lilliefors = 0.132, p-valor < 0.001\)); mientras que para los hijos de madres que fuman (\(Lilliefors = 0.125, p-valor = 0.048\)).
Dado que no se cumple con el supuesto de normalidad en los grupos analizados, la comparación de varianzas debe realizarse mediante pruebas robustas a esta condición. En este contexto, se recomienda emplear el test de Levene o el test no paramétrico de Fligner-Killeen, ambos diseñados para evaluar la homogeneidad de varianzas y que utilizan la mediana como medida de tendencia central, lo que los hace adecuados en presencia de datos no normales.
- Veamos la igualdad de varianza
## Levene's Test for Homogeneity of Variance (center = "median")
## Df F value Pr(>F)
## group 1 0.4442 0.5062
## 148
La prueba de Levene nos indica no se encuentran diferencias significativas en la varianza del peso entre los recién nacidos de madres fumadoras y no fumadoras (\(F_{(1)}=0.4442, p-valor=0.5062\)).
- Veamos si hay diferencia en los grupos de madres:
## # A tibble: 1 × 7
## .y. group1 group2 n1 n2 statistic p
## * <chr> <chr> <chr> <int> <int> <dbl> <dbl>
## 1 weight nonsmoker smoker 100 50 2879 0.131
La prueba de U de Mann-Whitney, nos muestra que no hay evidencia estadísticamente significativa de una diferencia en el peso de los recien nacidos entre madres fumadoras y no fumadoras (\(U = 2879, p-valor = 0.131\)).
## # A tibble: 1 × 7
## .y. group1 group2 effsize n1 n2 magnitude
## * <chr> <chr> <chr> <dbl> <int> <int> <ord>
## 1 weight nonsmoker smoker 0.123 100 50 small
Es claro que si no hay diferencia estadísticamente en los grupos, el efecto es pequeño o no existe.
¿Puedes usar una prueba paramétrica?. En caso afirmativo, ejecutela
4.4 Comparación de dos grupos pareados con estadística no paramétrica
La prueba de los rangos con signo de Wilcoxon (Wilcoxon signed-rank test) es una herramienta estadística no paramétrica utilizada para comparar dos muestras relacionadas. Su uso es especialmente recomendable cuando los datos no cumplen con los supuestos de normalidad requeridos por pruebas paramétricas como el t-test para muestras pareadas.
Esta prueba resulta útil cuando la distribución de las diferencias entre pares de observaciones muestra asimetría, colas pesadas o cuando el tamaño muestral es demasiado reducido como para validar la normalidad mediante métodos gráficos o contrastes de hipótesis.
4.4.0.1 Condiciones para aplicar la prueba de Wilcoxon signed-rank
Antes de aplicar esta prueba, deben cumplirse las siguientes condiciones:
Dependencia entre las muestras: los datos deben provenir de observaciones emparejadas o relacionadas (por ejemplo, mediciones antes y después sobre los mismos individuos).
Datos ordenables: los valores deben ser ordinales o continuos, de manera que puedan ordenarse de menor a mayor (o viceversa).
No se requiere normalidad, pero sí simetría en las diferencias: no es necesario que las diferencias entre pares sigan una distribución normal, pero sí se espera que tengan una distribución simétrica alrededor de un valor central (típicamente cero).
Opera sobre medianas: a diferencia del t-test, que se basa en la media, el Wilcoxon signed-rank test evalúa la simetría de las diferencias, lo cual suele interpretarse como un contraste sobre la mediana de las diferencias.
Es preferible al t-test cuando:
- Hay valores atípicos en los datos
- No se cumple el criterio de normalidad
- El tamaño de muestra es pequeño
4.4.1 ¿Cuándo se recomienda utilizar esta prueba?
Existen dos situaciones clave en las que es más apropiado usar el Wilcoxon signed-rank test en lugar del t-test pareado:
Cuando se detecta no normalidad:
Si los datos permiten identificar que las diferencias no se distribuyen normalmente (mediante gráficos o contrastes), el t-test deja de ser adecuado. En estos casos, el test de Wilcoxon constituye una alternativa robusta. Otras opciones también válidas son el bootstrapping, la regresión cuantílica o los tests de permutación.Cuando no se puede verificar la distribución:
Si el tamaño de muestra es tan pequeño que no permite evaluar con certeza la forma de la distribución, y no se dispone de evidencia previa sobre su comportamiento, es más prudente aplicar el Wilcoxon signed-rank test, ya que no requiere asumir normalidad.
- Evalúa si las diferencias entre pares siguen una distribución simétrica alrededor de cero.
- Se basa en los rangos de las diferencias absolutas, por lo que no utiliza los valores originales sino su orden.
- Es aplicable a variables que se puedan ordenar (ordinales o continuas).
- Posee menor poder estadístico que el t-test en datos normales, ya que ignora la magnitud exacta de los valores extremos. Sin embargo, esto lo hace más robusto frente a valores atípicos y distribuciones no normales.
El Wilcoxon signed-rank test es una opción sólida para el análisis de muestras emparejadas cuando los supuestos del t-test no se cumplen. No obstante, debe tenerse presente que un tamaño muestral pequeño limita la inferencia estadística, independientemente de la prueba empleada. Por ello, el análisis debe acompañarse de juicio experto y de otras fuentes de información cuando estén disponibles.
Un grupo de participantes fue evaluado antes y después de una intervención formativa mediante un cuestionario estructurado. El ítem Q1 del cuestionario mide una dimensión específica del desempeño o conocimiento relacionado con la temática abordada en la intervención. A cada participante se le asignó una puntuación en dos momentos temporales: durante la fase de Pretest (antes de la intervención) y durante la fase de Posttest (después de la intervención).
El propósito de este análisis es determinar si la intervención generó un cambio significativo en las respuestas al ítem Q1. Para ello, se aplicará una prueba estadística que permita comparar las puntuaciones obtenidas en el pretest y el posttest para cada participante, evaluando si dichas diferencias son estadísticamente significativas.Solución
- Carguemos el conjunto de datos
Code
#url_dat <- "https://docs.google.com/spreadsheets/d/e/2PACX-1vQaVafuOSuEnOIiJJoB_OLF6GHib4EGqtAPnFBkNXFj29iB8yex4wYXYAAyIW16eA/pub?gid=1616716040&single=true&output=tsv"
datos <- read_delim("data/dataQ.tsv", delim = "\t",escape_double = FALSE, trim_ws = TRUE)
datos <- datos %>%
mutate(across(c(Experimento, Genero,`Nivel educativo`), as.factor)) Realiza el análisis exploratorio del conjunto de datos
- Veamos si tienen comportamiento normal
Code
## Warning: There were 4 warnings in `summarise()`.
## The first warning was:
## ℹ In argument: `est_ks = ks.test(scale(Q1), "pnorm")$statistic`.
## ℹ In group 1: `Experimento = Post-test`.
## Caused by warning in `ks.test.default()`:
## ! ties should not be present for the one-sample Kolmogorov-Smirnov test
## ℹ Run `dplyr::last_dplyr_warnings()` to see the 3 remaining warnings.
## # A tibble: 2 × 8
## Experimento n est_ks p_ks estsw p_sw est_lt p_lt
## <fct> <int> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 Post-test 49 0.410 0.000000143 0.645 0.00000000123 0.410 2.43e-23
## 2 Pretest 49 0.324 0.0000688 0.791 0.000000652 0.324 3.28e-14
La prueba de Shapiro-Will nos muestra que los experimentos del pretest (\(W = 0.7905, p-valor < 0.001\)) y postest (\(W = .6447, p-valor < 0.001\)) no tienen comportamiento normal.
- Veamos si hay diferencia de la pregunta 1 segun el experimento:
## # A tibble: 1 × 7
## .y. group1 group2 n1 n2 statistic p
## * <chr> <chr> <chr> <int> <int> <dbl> <dbl>
## 1 Q1 Post-test Pretest 49 49 1128 0.00000000145
La prueba de los rangos con signo de Wilcoxon para muestras pareadas nos indica que la intervención produjo un cambio estadísticamente significativo en las respuestas al ítem Q1 (\(W=1128, p-valor < 0.001\)). La dirección de este cambio sugiere una mejora en el desempeño de los participantes, dado que las puntuaciones en el post-test son consistentemente mayores que en el pretest.
## # A tibble: 1 × 7
## .y. group1 group2 effsize n1 n2 magnitude
## * <chr> <chr> <chr> <dbl> <int> <int> <ord>
## 1 Q1 Post-test Pretest 0.879 49 49 large
Además del resultado estadísticamente significativo, el tamaño del efecto obtenido para la comparación entre las puntuaciones de Q1 en el pretest y el post-test fue de \(r = 0.8794\), lo cual representa un efecto grande. Esto indica que el cambio observado no solo es significativo, sino que también tiene relevancia práctica considerable sobre el desempeño de los participantes tras la intervención.
4.5 ANOVA (análisis de varianza para comparar múltiples medias)
La técnica de análisis de varianza (ANOVA), también conocida como análisis factorial, fue desarrollada por Ronald Fisher en la década de 1930 y constituye una herramienta estadística fundamental para evaluar el efecto de uno o más factores (cada uno con dos o más niveles) sobre la media de una variable continua.
ANOVA se utiliza cuando se desea comparar simultáneamente las medias de dos o más grupos, evaluando si las diferencias observadas son estadísticamente significativas. Además, esta técnica puede extenderse para analizar no solo los efectos principales de los factores, sino también sus posibles interacciones y, en ciertos casos, el efecto de los factores sobre la variabilidad (varianza) de la variable dependiente.
4.5.1 Supuestos y formulación de las hipótesis
Se considera que existen \(k\) poblaciones distintas, denominadas tratamientos o categorías, cada una de las cuales está normalmente distribuida con medias \(\mu_1, \mu_2, \dots, \mu_k\), y comparten una misma varianza común \(\sigma^2\). Para representarlas, se extraen muestras aleatorias independientes de tamaños \(n_1, n_2, \dots, n_k\), respectivamente.
A lo largo del análisis se utiliza la notación \(y_{ij}\) para denotar la i-ésima observación dentro del j-ésimo grupo o tratamiento, facilitando así el estudio comparativo entre medias categorizadas.
Bajo este esquema, los datos pueden organizarse como se muestra en la Tabla 4.1, lo cual permite aplicar la técnica de análisis de varianza de un factor para contrastar la hipótesis de igualdad entre medias poblacionales (Solano 2019).
| Población 1 | Población 2 | Población 3 | … | Población \(k\) |
|---|---|---|---|---|
| \(y_{11}\) | \(y_{12}\) | \(y_{13}\) | … | \(y_{1k}\) |
| \(y_{21}\) | \(y_{22}\) | \(y_{23}\) | … | \(y_{2k}\) |
| \(\vdots\) | \(\vdots\) | \(\vdots\) | … | \(\vdots\) |
| \(y_{n_{1},1}\) | \(y_{n_{2},2}\) | \(y_{n_{3},3}\) | … | \(y_{n_{k},k}\) |
Entonces, el procedimiento para contrastar la hipótesis de igualdad de medias en este contexto se denomina análisis de varianza de un factor, una terminología que se hará más clara cuando tratemos otros modelos de análisis de varianza.
Supongamos que tenemos muestras aleatorias independientes con tamaños \(n_1, n_2, \ldots, n_k\). Si representamos las medias poblacionales por \(\mu_1, \mu_2, \ldots, \mu_k\), el análisis de varianza de un factor está diseñado para contrastar la hipótesis nula de que todas las medias poblacionales son iguales, es decir:
\[ H_0: \mu_1 = \mu_2 = \cdots = \mu_k \quad \text{vs} \quad H_1: \text{Al menos dos medias son diferentes}. \]
A partir de la definición anterior, en este apartado desarrollaremos el contraste de la hipótesis nula de igualdad de medias entre \(k\) poblaciones, considerando que se dispone de muestras aleatorias independientes para cada una de ellas.
Con el fin de facilitar los cálculos y el análisis posterior, los datos serán organizados en una tabla estructurada por categorías, como se muestra a continuación.
| Población 1 | Población 2 | Población 3 | … | Población \(k\) | Total | |
|---|---|---|---|---|---|---|
| Muestras | \(y_{11}\) | \(y_{12}\) | \(y_{13}\) | \(\cdots\) | \(y_{1k}\) | |
| \(y_{21}\) | \(y_{22}\) | \(y_{23}\) | \(\cdots\) | \(y_{2k}\) | ||
| \(\vdots\) | \(\vdots\) | \(\vdots\) | \(\cdots\) | \(\vdots\) | ||
| \(y_{n_{1},1}\) | \(y_{n_{2},2}\) | \(y_{n_{3},3}\) | \(\cdots\) | \(y_{n_{k},k}\) | ||
| Tamaño | \(n_1\) | \(n_2\) | \(n_3\) | \(\cdots\) | \(n_k\) | \(N\) |
| Sumas | \(T_1\) | \(T_2\) | \(T_3\) | \(\cdots\) | \(T_k\) | \(T\) |
| Medias | \(\bar{y}_1\) | \(\bar{y}_2\) | \(\bar{y}_3\) | \(\cdots\) | \(\bar{y}_k\) | \(\bar{y}\) |
donde
- \(y_{ij}\) es la i-ésima observación del tratamiento \(j\).
- \(n_j\) es el tamaño de la j-ésima muestra.
- \(N = n_1 + n_2 + \cdots + n_k\) es la suma de todos los tamaños de muestra.
- \(T_j = y_{1j} + y_{2j} + \cdots + y_{n_j,j}\) es la suma de las observaciones de la muestra j-ésima.
- \(T = T_1 + T_2 + \cdots + T_k\) es la suma de todas las observaciones.
- \(\bar{y}_j = \frac{T_j}{n_j}\) es la media de las observaciones de la muestra j-ésima.
- \(\bar{y} = \frac{T}{N}\) es la media total de todas las observaciones.
4.5.2 Sumas de cuadrados y teorema de descomposición
El contraste de igualdad de medias se fundamenta en la comparación entre dos fuentes de variabilidad en los datos muestrales:
La primera es la variabilidad en torno a las medias muestrales individuales de los \(k\) grupos de observaciones. Esta se denomina variabilidad dentro de los grupos.
La segunda es la variabilidad entre las medias de los \(k\) grupos. Esta se denomina variabilidad entre grupos.
A continuación, definiremos medidas cuantitativas para ambos tipos de variabilidad.
Es la variación de las observaciones individuales respecto a su propia media muestral dentro de cada grupo. Para el grupo \(j = 1, \ldots, k\) , se define como:
\[ (SE)_j = \sum_{i=1}^{n_j} (y_{ij} - \bar{y}_j)^2 \]
Es la suma total de la variabilidad dentro de todos los grupos. También se conoce como suma de cuadrados dentro de los grupos y se define como:
\[ SSE = \sum_{j=1}^{k} \sum_{i=1}^{n_j} (y_{ij} - \bar{y}_j)^2 \]
En relación con la variabilidad entre grupos, que simbolizaremos como SSA, una medida natural consiste en calcular las diferencias entre las medias muestrales de cada grupo y la media muestral global.
Estas diferencias se elevan al cuadrado para representar la desviación de cada grupo respecto a la media global. Como cada grupo \(j\) tiene un tamaño \(n_j\), se pondera cada diferencia por dicho tamaño.
Así, la suma de cuadrados entre grupos (también llamada suma de cuadrados de tratamientos) se define como:
\[ SSA = \sum_{j=1}^{k} n_j (\bar{y}_j - \bar{y})^2 \]
donde
- \(\bar{y}_j\) es la media muestral del grupo \(j\),
- \(\bar{y}\) es la media muestral global,
- \(n_j\) es el tamaño de la muestra del grupo \(j\),
- \(k\) es el número total de grupos.
Es la variabilidad total de todas las observaciones con respecto a la media global. Se define como:
\[ SST = \sum_{j=1}^{k} \sum_{i=1}^{n_j} (y_{ij} - \bar{y})^2 \]
Supongamos que tenemos muestras aleatorias independientes de tamaños \(n_1, n_2, \ldots, n_k\), correspondientes a \(k\) poblaciones. Sean \(y_{ij}\) la i-ésima observación muestral en el grupo \(j\), \(\bar{y}_1, \bar{y}_2, \ldots, \bar{y}_k\) las medias muestrales por grupo, y \(\bar{y}\) la media muestral global. Definimos las siguientes sumas de cuadrados:
Suma de cuadrados total (SST):
\[ SST = \sum_{j=1}^{k} \sum_{i=1}^{n_j} (y_{ij} - \bar{y})^2 = \sum_{j=1}^{k} \sum_{i=1}^{n_j} y_{ij}^2 - \frac{T^2}{N} \]
Suma de cuadrados entre grupos (SSA):
\[ SSA = \sum_{j=1}^{k} (\bar{y}_j - \bar{y})^2 n_j = \sum_{j=1}^{k} \frac{T_j^2}{n_j} - \frac{T^2}{N} \]
Suma de cuadrados dentro de los grupos (SSE):
\[ SSE = \sum_{j=1}^{k} \sum_{i=1}^{n_j} (y_{ij} - \bar{y}_j)^2 \]
Entonces, se cumple que:
\[ SST = SSA + SSE \]
Demostración del teorema
Recordemos que la suma total de cuadrados se define como:
\[ SST = \sum_{j=1}^{k} \sum_{i=1}^{n_j} (y_{ij} - \bar{y})^2 \]
Descomponemos la diferencia \(y_{ij} - \bar{y}\)
\[ y_{ij} - \bar{y} = (y_{ij} - \bar{y}_j) + (\bar{y}_j - \bar{y}) \]
Elevamos al cuadrado y aplicamos la identidad
\[ (y_{ij} - \bar{y})^2 = (y_{ij} - \bar{y}_j)^2 + 2(y_{ij} - \bar{y}_j)(\bar{y}_j - \bar{y}) + (\bar{y}_j - \bar{y})^2 \]
Sumamos sobre \(i\) y \(j\)
\[ SST = \sum_{j=1}^{k} \sum_{i=1}^{n_j} (y_{ij} - \bar{y}_j)^2 + 2 \sum_{j=1}^{k} \sum_{i=1}^{n_j} (y_{ij} - \bar{y}_j)(\bar{y}_j - \bar{y}) + \sum_{j=1}^{k} \sum_{i=1}^{n_j} (\bar{y}_j - \bar{y})^2 \]
Notemos que
- \(\sum_{i=1}^{n_j} (y_{ij} - \bar{y}_j) = 0\), por lo tanto la segunda suma es cero.
- En la tercera suma, \((\bar{y}_j - \bar{y})^2\) no depende de \(i\), así que:
\[ \sum_{i=1}^{n_j} (\bar{y}_j - \bar{y})^2 = n_j (\bar{y}_j - \bar{y})^2 \]
Entonces
\[ SST = \underbrace{\sum_{j=1}^{k} \sum_{i=1}^{n_j} (y_{ij} - \bar{y}_j)^2}_{SSE} + \underbrace{\sum_{j=1}^{k} n_j (\bar{y}_j - \bar{y})^2}_{SSA} \]
Por tanto, se cumple la relación de descomposición
\[ SST = SSE + SSA. \quad \square \]
¿Por qué \(\sum_{i=1}^{n_j} (y_{ij} - \bar{y}_j) = 0\)?
Vamos a analizar el término interno \[\sum_{i=1}^{n_j} (y_{ij} - \bar{y}_j)\] Este representa la suma de las desviaciones de cada valor respecto a su propia media grupal. Es decir, por definición tenemos que \[\bar{y}_j = \frac{1}{n_j} \sum_{i=1}^{n_j} y_{ij} \quad \Rightarrow \quad \sum_{i=1}^{n_j} y_{ij} = n_j \bar{y}_j.\] Entonces \[\sum_{i=1}^{n_j} (y_{ij} - \bar{y}_j) = \sum_{i=1}^{n_j} y_{ij} - \sum_{i=1}^{n_j} \bar{y}_j = \sum_{i=1}^{n_j} y_{ij} - n_j \bar{y}_j = n_j \bar{y}_j - n_j \bar{y}_j = 0\] Esto se cumple para cada grupo \(j\). Luego \[\sum_{i=1}^{n_j} (y_{ij} - \bar{y}_j)(\bar{y}_j - \bar{y}) = (\bar{y}_j - \bar{y}) \cdot \sum_{i=1}^{n_j} (y_{ij} - \bar{y}_j) = (\bar{y}_j - \bar{y}) \cdot 0 = 0.\]
4.5.3 Estimaciones insesgadas de la varianza poblacional
El contraste de igualdad de medias en el análisis de varianza se fundamenta en el supuesto de que las \(k\) poblaciones involucradas comparten una varianza poblacional común. Si la hipótesis nula de igualdad de medias es verdadera, entonces tanto la suma de cuadrados entre grupos (SSA) como la suma de cuadrados dentro de los grupos (SSE) pueden considerarse como bases válidas para estimar dicha varianza común.
No obstante, para obtener estimaciones adecuadas, es necesario dividir cada suma de cuadrados entre sus respectivos grados de libertad, conforme se establece en el siguiente teorema.
Antes de iniciar con los teoremas debemos recordar algunos conceptos de teoricos
Sea \((\Omega, \mathcal{F}, P)\) un espacio de probabilidad y \(X\) una variable aleatoria real.
a) Si \(X\) es una variable aleatoria discreta con valores \(x_1, x_2, \ldots\), se dice que la esperanza de \(X\) existe si:
\[ \sum_{k=1}^{\infty} |x_k| P(X = k) < \infty \]
En este caso, se define la esperanza o valor esperado de \(X\) como:
\[ \mathbb{E}(X) = \sum_{k=1}^{\infty} x_k P(X = k) \]
b) Si \(X\) es una variable aleatoria continua con función de densidad \(f_X\), se dice que la esperanza de \(X\) existe si:
\[ \int_{-\infty}^{\infty} |x| f_X(x) \, dx < \infty \]
En este caso, se define la esperanza o valor esperado de \(X\) como:
\[ \mathbb{E}(X) = \int_{-\infty}^{\infty} x f_X(x) \, dx \]
Sean \((\Omega, \mathcal{F}, P)\) un espacio de probabilidad y \(X\) sean variables aleatorias reales. Entonces:
- \(\mathbb{E}(a) = a\); para cada constante \(a \in \mathbb{R}\).
- Si \(a\) y \(b\) son constantes y si \(g\) y \(h\) son funciones, tales que \(g(X)\) y \(h(X)\) son variables aleatorias cuyos valores esperados existen, entonces el valor esperado de \((a g(X) + b h(X))\) existe y: \[ \mathbb{E}(a g(X) + b h(X)) = a \mathbb{E}(g(X)) + b \mathbb{E}(h(X)) \]
- Si \(g\) y \(h\) son funciones tales que \(g(X)\) y \(h(X)\) son variables aleatorias cuyos valores esperados existen y si \(g(x) \leq h(x)\) para todo \(x\), entonces: \[ \mathbb{E}(g(X)) \leq \mathbb{E}(h(X)). \] En particular, \(|\mathbb{E}(X)| \leq \mathbb{E}(|X|)\).
Sea \(\theta\) un parámetro poblacional y \(\hat{\theta}\) un estimador de \(\theta\). Se dice que \(\hat{\theta}\) es insesgado si su valor esperado coincide con el valor verdadero del parámetro, es decir,
\[ \mathbb{E}(\hat{\theta}) = \theta \]
En otras palabras, un estimador es insesgado cuando, en promedio, no sobrestima ni subestima el valor del parámetro que pretende estimar.
Supongamos que tenemos muestras aleatorias independientes de tamaños \(n_1, n_2, \ldots, n_k\), correspondientes a \(k\) poblaciones con varianzas iguales (\(\sigma^2\)). Sea \(N\) el tamaño muestral total, de manera que \(N = n_1 + n_2 + \cdots + n_k\). Sean \(SSA\) y \(SSE\) como en el teorema de descomposición de la suma de cuadrados. Entonces, dos estimaciones insesgadas de \(\sigma^2\) son las siguientes:
Cuadrado medio entre los grupos (o del tratamiento):
\[ MSA = \frac{SSA}{k - 1} \]
Cuadrado medio dentro de los grupos (o del error):
\[ MSE = \frac{SSE}{N - k} \]
Demostración del teorema
Primero probemos que \(\mathbb{E}[MSE] = \sigma^2\). Sabemos que
\[SSE = \sum_{j=1}^{k} \sum_{i=1}^{n_j} (y_{ij} - \bar{y}_j)^2 = \sum_{j=1}^k (n_j - 1) s_j^2, \quad \left( s=\frac{\sum_{i=1}^{n}(x_i-\bar{x})^2}{n-1}\right)\]
Cada \(s_j^2\) es un estimador insesgado de la varianza poblacional por lo que
\[\mathbb{E}[s_j^2] = \sigma^2 \Rightarrow \mathbb{E}[(n_j - 1) s_j^2] = (n_j - 1) \sigma^2\]
luego
\[\mathbb{E}[SSE] = \sum_{j=1}^{k} \mathbb{E}[(n_j - 1) s_j^2] = \sum_{j=1}^k (n_j - 1) \sigma^2 = (N - k) \sigma^2.\]
En consecuencia
\[\mathbb{E}[MSE] = \mathbb{E} \left[ \frac{SSE}{N - k} \right] = \frac{\mathbb{E}[SSE]}{N - k} = \frac{(N - k)\sigma^2}{N - k} = \sigma^2\]
Esto preuba que MSE es un estimador insesgado de \(\sigma^2\).
De otro lado, probemos que \(\mathbb{E}[MSA] = \sigma^2\). En efecto, supongamos que se tienen \(k\) grupos independientes, cada uno con \(n_j\) observaciones:
\[y_{ij} = \mu + \tau_j + \epsilon_{ij} \quad \text{con } \epsilon_{ij} \sim \mathcal{N}(0, \sigma^2), \text{ independientes}\]
donde:
- \(y_{ij}\): i-ésima observación del grupo j
- \(\mu\): media global general
- \(\tau_j\): efecto del tratamiento j (con \(\sum_{j=1}^k \tau_j = 0\))
- \(\epsilon_{ij}\): error aleatorio con varianza común \(\sigma^2\)
y supongamos que
\[H_0: \tau_1 = \tau_2 = \cdots = \tau_k = 0\]
Sabemos que la suma de cuadrados entre tratamientos (SSA) se define como:
\[SSA = \sum_{j=1}^{k} n_j (\bar{y}_j - \bar{y})^2\]
donde
- \(\bar{y}_j = \frac{1}{n_j} \sum_{i=1}^{n_j} y_{ij}\): media del grupo \(j\)
- \(\bar{y} = \frac{1}{N} \sum_{j=1}^k \sum_{i=1}^{n_j} y_{ij}\): media global, con \(N = \sum_{j=1}^k n_j.\)
Entonces
\(\mathbb{E}[\bar{y}_j] = \mu + \tau_j\),
\(\mathbb{E}[\bar{y}] = \mu \quad \text{(ya que } \sum \tau_j = 0 \text{)}\)
por lo que la expresión en términos de variables aleatorias
\[\mathbb{E}[SSA] = \mathbb{E}\left[ \sum_{j=1}^k n_j (\bar{y}_j - \bar{y})^2 \right],\]
expandiendo el cuadrado
\[ (\bar{y}_j - \bar{y})^2 = \bar{y}_j^2 - 2\bar{y}_j\bar{y} + \bar{y}^2 \]
luego
\[ SSA = \sum_{j=1}^k n_j \left(\bar{y}_j^2 - 2\bar{y}_j\bar{y} + \bar{y}^2\right) = \sum_{j=1}^k n_j \bar{y}_j^2 - 2\bar{y} \sum_{j=1}^k n_j \bar{y}_j + N \bar{y}^2 \]
Sabemos que
\[ \sum_{j=1}^k n_j \bar{y}_j = N \bar{y} \]
y por lo tanto
\[ SSA = \sum_{j=1}^k n_j \bar{y}_j^2 - N \bar{y}^2 \]
Ahora, la esperanza de SSA
\[ \mathbb{E}[SSA] = \sum_{j=1}^k n_j \mathbb{E}[\bar{y}_j^2] - N \mathbb{E}[\bar{y}]^2 \]
usando
\[ \text{Var}(\bar{y}_j) = \frac{\sigma^2}{n_j}, \quad \mathbb{E}[\bar{y}_j^2] = (\mu + \tau_j)^2 + \frac{\sigma^2}{n_j} \]
\[ \mathbb{E}[\bar{y}]^2 = \mu^2 + \text{Var}(\bar{y}) = \mu^2 + \frac{\sigma^2}{N} \]
por lo que
\[ \mathbb{E}[SSA] = \sum_{j=1}^k n_j \left[(\mu + \tau_j)^2 + \frac{\sigma^2}{n_j}\right] - N \left(\mu^2 + \frac{\sigma^2}{N}\right) \]
distribuyendo
\[ \sum_{j=1}^k n_j (\mu + \tau_j)^2 + \sum_{j=1}^k \sigma^2 - N\mu^2 - \sigma^2. \]
Observamos que
\[ \sum_{j=1}^k n_j (\mu + \tau_j)^2 = N\mu^2 + \sum_{j=1}^k n_j \tau_j^2 \quad \text{(ya que } \sum n_j \tau_j = 0 \text{)} \]
y finalmente
\[ \mathbb{E}[SSA] = N\mu^2 + \sum n_j \tau_j^2 + k\sigma^2 - N\mu^2 - \sigma^2 = \sum n_j \tau_j^2 + (k - 1)\sigma^2 \]
Bajo la hipótesis nula H₀: todos los \(\tau_j = 0\), entonces:
\[ \mathbb{E}[SSA] = (k - 1)\sigma^2 \]
En conclusión, \[ \mathbb{E}\left[\frac{SSA}{k - 1}\right] = \sigma^2 \Rightarrow MSA \text{ es insesgado.} \quad \square \]
4.5.4 Teorema de contraste para el análisis de varianza
Si la hipótesis nula fuera cierta, contaríamos con dos estimaciones insesgadas de una misma cantidad: la varianza poblacional común. Sería razonable esperar que ambas estimaciones fueran numéricamente similares. Sin embargo, a mayor discrepancia entre ellas, suponiendo que todo lo demás permanece constante, mayor será la sospecha de que la hipótesis nula no se cumple.
Por tanto, el contraste de la hipótesis nula de igualdad de medias se basa en la razón entre los cuadrados medios:
\[ F = \frac{MSA}{MSE} \]
donde:
- \(MSA\) es el cuadrado medio entre grupos (Mean Square for the Factor),
- \(MSE\) es el cuadrado medio dentro de los grupos (Mean Square Error).
Si el cociente \(F\) se aproxima a 1, no hay evidencia para rechazar la hipótesis nula, lo que indicaría que las medias poblacionales son estadísticamente similares. Sin embargo, si la variabilidad entre grupos es considerablemente mayor en comparación con la variabilidad interna, entonces \(F\) será sustancialmente mayor que 1, y se interpretará como evidencia contra la hipótesis nula.
Este razonamiento se formaliza mediante un contraste estadístico: si la hipótesis nula es verdadera y se cumplen los supuestos de normalidad y homogeneidad de varianzas, entonces el estadístico \(F\) sigue una distribución F de Snedecor, con:
- \(k - 1\) grados de libertad en el numerador, y
- \(n - k\) grados de libertad en el denominador,
donde \(k\) es el número de grupos y \(n\) es el tamaño total de la muestra.
Este resultado se resume en el siguiente teorema:
Supongamos que se tienen muestras aleatorias independientes de tamaños \(n_1, n_2, \dots, n_k\), correspondientes a \(k\) poblaciones. Sea \(N\) el tamaño muestral total, de modo que:
\[N = n_1 + n_2 + \cdots + n_k\]
Si las medias poblacionales se denotan por \(\mu_1, \mu_2, \dots, \mu_k\), entonces la hipótesis nula que se desea contrastar es:
\[H_0 : \mu_1 = \mu_2 = \cdots = \mu_k \quad \text{versus} \quad H_1 : \text{al menos una } \mu_j \text{ difiere.}\]
Bajo el supuesto de normalidad y homogeneidad de varianzas, el estadístico de prueba es:
\[F = \frac{MSA}{MSE}\]
Este estadístico sigue una distribución \(F\) con \(\nu_1 = k - 1\) grados de libertad en el numerador y \(\nu_2 = N - k\) grados de libertad en el denominador. La hipótesis nula se rechaza al nivel de significancia \(\alpha\) si:
\[F > F_{\alpha, \nu_1, \nu_2}\]
donde \(F_{\alpha, \nu_1, \nu_2}\) representa el valor crítico de la distribución F correspondiente al nivel de significancia \(\alpha\).
Demostración del teorema
Basta con usar el teorema de descomposición de la suma de cuadrados y el teorema de MSA y MSE insesgado de \(\sigma^2\). \(\quad \square\)
Los cálculos necesarios para llevar a cabo este contraste se pueden resumir en una tabla de análisis de varianza de un factor (4.3), como se muestra a continuación:
| Fuente.de.variación | Suma.de.cuadrados | Grados.de.libertad | Cuadrado.medio | Razón.F |
|---|---|---|---|---|
| Tratamientos (entre grupos) | SSA | k - 1 | MSA = SSA / (k - 1) | F = MSA / MSE |
| Error (dentro de grupos) | SSE | N - k | MSE = SSE / (N - k) | |
| Total | SST | N - 1 |
La siguiente tabla presenta los porcentajes (en microgramos) de concentración plasmática de una sustancia química en tres grupos poblacionales:
- Empleados expuestos: trabajadores que manipulan o están en contacto directo con la sustancia en entornos industriales.
- Agricultores expuestos: población rural en contacto con agroquímicos que contienen el compuesto.
- No expuestos: personas que no presentan exposición conocida al agente químico (grupo control).
Se desea determinar si existen diferencias estadísticamente significativas en los niveles medios del compuesto entre los tres grupos. Para ello, se aplicará un análisis de varianza de un factor (ANOVA) bajo las siguientes condiciones:
- Las poblaciones son normales.
- Las varianzas son iguales.
- El nivel de significancia es \(\alpha = 0{.}05\).
Solución
Sea \(\mu_i\) el valor promedio poblacional de concentración plasmática de la sustancia química para el grupo \(i\), donde:
- \(i = 1\): Empleados expuestos
- \(i = 2\): Agricultores expuestos
- \(i = 3\): No expuestos
El objetivo del análisis es determinar si los valores medios de concentración difieren significativamente entre los tres grupos.
Bajo este contexto, se plantean las siguientes hipótesis estadísticas:
\[ \begin{aligned} H_0: &\quad \mu_1 = \mu_2 = \mu_3 \quad \text{(todas las medias son iguales)} \ vs \\\\ H_1: &\quad \text{Al menos una media difiere de las demás} \end{aligned} \]
Bajo la hipótesis nula, se considera que todos los grupos provienen de poblaciones con igual valor medio. Rechazarla implica que existe evidencia estadística de diferencias significativas en al menos uno de los grupos.
- Quitemos los
NAs
Code
- Hallamos los tamaños de cada muestra
Code
- Hallemos los promedios de cada muestra
Code
- Hallemos la suma de cuadrados total (SST)
Code
- Hallemos la suma de cuadrados entre grupos (SSA)
Code
- Ahora, hallemos la suma de cuadrados dentro de grupos (SSE)
- Calculemos los cuadrados medios y el estadístico de Fisher
- Hallemos el \(F\) critico y veamos si rechazo o no la hipotesis nula
Code
## [1] "Se rechaza H_0"
- Otra forma de realizarlo es:
Code
## [1] "Se rechaza H_0"
Esto indica que existen diferencias estadísticamente significativas en los niveles medios de concentración plasmática del compuesto químico entre al menos dos de los grupos: empleados expuestos, agricultores expuestos y personas no expuestas. Este resultado sugiere que el grado de exposición al compuesto químico podría estar influyendo en los niveles plasmáticos observados, por lo cual se recomienda realizar un análisis post hoc (como la prueba de Tukey) para identificar con mayor precisión cuáles pares de grupos difieren significativamente entre sí.
Una institución educativa implementó tres estrategias diferentes de enseñanza para evaluar su impacto en el rendimiento académico de los estudiantes. Cada estrategia fue aplicada a un grupo distinto de alumnos, identificados como Grupo A, Grupo B y Grupo C.
Al finalizar el periodo académico, se aplicó una prueba estandarizada común a todos los estudiantes, y se registraron las calificaciones obtenidas sobre una escala de 0 a 100 puntos. Los datos de las calificaciones por grupo se presentan a continuación.
El objetivo del análisis es determinar, mediante un análisis de varianza de un factor (ANOVA), si existen diferencias estadísticamente significativas en los promedios de calificaciones entre los tres grupos de estudiantes, lo que permitiría identificar si alguna estrategia resulta más efectiva que las otras.
Solución
Realiza el análisis exploratorio del conjunto de datos
- Verifiquemos la prueba de normalidad
Code
## # A tibble: 3 × 3
## Grupo estadistico p_valor
## <chr> <dbl> <dbl>
## 1 A 0.974 0.924
## 2 B 0.970 0.892
## 3 C 0.970 0.892
La prueba de Shapiro-Will muestra que hay no hay diferencias estadísticamente significativas con respecto a la normalidad de cada grupo.
- Probemos homogeneidad de varianzas
##
## Bartlett test of homogeneity of variances
##
## data: Calificaciones by factor(Grupo)
## Bartlett's K-squared = 1.3763, df = 2, p-value = 0.5025
La prueba de homogeneidad de varianzas de Bartlett nos indica que no diferencias significativas en la igualdad de varianzas entre los grupos.
- Ahora, apliquemos el ANOVA
## Df Sum Sq Mean Sq F value Pr(>F)
## Grupo 2 875.3 437.6 7.429 0.00269 **
## Residuals 27 1590.6 58.9
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
La prueba de ANOVA nos muestra que strong>existen diferencias significativas entre los promedios de calificaciones de al menos uno de los tres grupos.
La siguiente es una parte de la tabla de análisis de varianza (ANOVA):
| Fuente de variación | Suma de cuadrados | Grados de libertad | Cuadrado medio | Razón F |
|---|---|---|---|---|
| Tratamientos | SSA | k − 1 = 2 | MSA | F = MSA / MSE |
| Error | SSE | N − k | MSE = 20 | |
| Total | SST = 500 | N − 1 = 11 |
Complete el cuadro y responda:
- ¿Cuántos tratamientos hay?
- ¿Cuál es el tamaño total de la muestra?
- ¿Cuáles son las hipótesis nula y alternativa?
- ¿Cuál es su conclusión con respecto a la hipótesis nula?
De cada una de cuatro poblaciones se tomó una muestra aleatoria de 16 observaciones. Parte de la tabla ANOVA es:
| Fuente de variación | Suma de cuadrados | Grados de libertad | Cuadrado medio | Razón F |
|---|---|---|---|---|
| Tratamientos | SSA | k − 1 | MSA = 400 | F = MSA / MSE |
| Error | SSE | N − k | MSE | |
| Total | SST = 1500 | N − 1 |
Suponga que las poblaciones en cuestión son normales con varianzas iguales. Al nivel de significancia \(\alpha = 0.05\), ¿se puede rechazar la hipótesis nula de que las medias de las cuatro poblaciones son iguales?
En un experimento para investigar el funcionamiento de cuatro marcas diferentes de procesadores para computador, se probaron cinco procesadores de cada marca y se observó el tiempo de funcionamiento hasta presentarse una falla. Parte de la tabla ANOVA es:
| Fuente de variación | Suma de cuadrados | Grados de libertad | Cuadrado medio | Razón F |
|---|---|---|---|---|
| Marca | ? | ? | ? | ? |
| Error | ? | ? | 14713.69 | |
| Total | 310500.76 | ? |
Complete la tabla, formule las hipótesis correspondientes, y determine si hay evidencia suficiente para rechazar la hipótesis nula. También obtenga el valor-p asociado.
La siguiente tabla muestra la duración (en días) de la carga para cuatro marcas diferentes de baterías, registradas a partir de cinco observaciones por marca:
| Batería A | Batería B | Batería C | Batería D |
|---|---|---|---|
| 82 | 55 | 69 | 87 |
| 79 | 67 | 72 | 61 |
| 75 | 84 | 78 | 82 |
| 68 | 77 | 83 | 61 |
| 65 | 71 | 74 | 72 |
Utilice un nivel de significancia \(\alpha = 0{,}05\) para determinar si existen diferencias significativas en la duración media de las cargas entre las cuatro marcas de baterías.
Suponga que las poblaciones en cuestión son normales y con varianzas iguales.
Se realizó un estudio para conocer cuánto tiempo, en minutos, tardan los estudiantes de octavo grado de tres escuelas diferentes en terminar un ejercicio específico de álgebra. De cada una de las escuelas se seleccionaron al azar siete estudiantes. Los resultados obtenidos fueron los siguientes:
| Escuela A | Escuela B | Escuela C |
|---|---|---|
| 17 | 24 | 25 |
| 21 | 18 | 24 |
| 25 | 19 | 25 |
| 16 | 22 | 21 |
| 19 | 23 | 24 |
| 22 | 20 | 28 |
| 18 | 21 | 19 |
Utilice un nivel de significancia \(\alpha = 0{,}01\) para determinar si existe diferencia significativa en los promedios de tiempo que tardan los estudiantes de las tres escuelas en resolver el ejercicio.
Suponga que las poblaciones son normales y tienen varianzas iguales.
Se analizaron seis muestras de docentes de cada una de las cuatro universidades privadas que hay en cierta ciudad, con el fin de realizar un estudio sobre el incremento porcentual salarial de los docentes en dichas instituciones. Los datos recolectados fueron los siguientes:
| Universidad 1 | Universidad 2 | Universidad 3 | Universidad 4 |
|---|---|---|---|
| 6.0 | 6.1 | 6.4 | 7.8 |
| 6.1 | 7.5 | 4.9 | 7.0 |
| 6.7 | 5.9 | 6.0 | 5.5 |
| 5.8 | 5.6 | 5.2 | 7.2 |
| 5.2 | 6.5 | 5.8 | 8.3 |
| 4.5 | 8.0 | 4.7 | 6.1 |
¿Sugiere esta información que al menos dos universidades difieren en su promedio de incremento porcentual salarial docente?
Utilice una prueba de ANOVA con nivel de significancia \(\alpha = 0{,}05\), basada en el p-valor, y suponga que las poblaciones en cuestión son normales con varianzas iguales.
En un diseño completamente aleatorizado, se aplicaron cinco niveles distintos de un factor. Para cada uno de estos niveles se usaron siete unidades experimentales. La tabla parcial del análisis de varianza (ANOVA) es la siguiente:
| Fuente de variación | Suma de cuadrados | Grados de libertad | Cuadrado medio | F | Valor-p |
|---|---|---|---|---|---|
| Tratamientos | 300 | ||||
| Error | |||||
| Total | 460 |
- ¿Cuáles son las hipótesis en este problema?
- Utilice un nivel de significancia \(\alpha = 0{,}05\). ¿Se puede rechazar la hipótesis nula del inciso a)? Justifique su respuesta utilizando el valor del estadístico F y el p-valor correspondiente.
4.5.5 Comparaciones múltiples
Aunque en un análisis de varianza se pueda rechazar la hipótesis nula, que establece que todas las medias poblacionales son iguales, en favor de la alternativa, que indica que al menos una media difiere, este resultado no permite identificar cuáles medias son diferentes ni entre qué grupos se presentan dichas diferencias.
Por tanto, una vez detectada una diferencia significativa en el análisis global, es necesario aplicar una estrategia adicional que permita estudiar con mayor detalle las relaciones entre grupos y precisar cuáles presentan diferencias relevantes en sus medias.
Si se define el cuadrado medio del error, CME, por:
\[CME = \frac{\sum_{j=1}^{k} (n_j - 1) s_j^2}{N - k}\]
y la media geométrica ponderada de las \(s_j^2\), denotada por CMGE, por:
\[CMGE = \left[ (s_1^2)^{n_1 - 1} \cdot (s_2^2)^{n_2 - 1} \cdots (s_k^2)^{n_k - 1} \right]^{1 / (N - k)}, \]
entonces se cumple que:
\[CMGE \leq CME\]
4.5.5.1 Método T de Tukey (o método HSD)
El método de Tukey para comparaciones múltiples se aplica cuando se requiere comparar todos los pares posibles de medias \(\mu_i\) y \(\mu_j\), con \(i \neq j\), de todas las poblaciones.
Cuando todos los tamaños muestrales son iguales, el coeficiente de confianza del método de Tukey es exactamente \(1 - \alpha\). Cuando los tamaños muestrales son diferentes, el método sigue siendo válido, aunque se vuelve más conservador, proporcionando estimaciones más prudentes.
Este método utiliza como estadístico el rango studentizado \(q\), definido como:
\[q := \frac{\max \bar{Y}_j - \min \bar{Y}_j}{\sqrt{CME / N}}\]
donde \(CME\) es el cuadrado medio del error y \(N\) es el número de observaciones por grupo.
Para determinar si dos medias \(\bar{Y}_i\) y \(\bar{Y}_j\) difieren significativamente, se utiliza el valor HSD (“honestamente significativa diferencia”), definido de las siguientes formas:
- Cuando los tamaños muestrales son desiguales:
\[HSD = q_{\alpha}(k, N - k) \cdot \sqrt{CME \left( \frac{1}{n_i} + \frac{1}{n_j} \right)}\]
- Cuando los tamaños muestrales son iguales:
\[HSD = q_{\alpha}(k, N - k) \cdot \sqrt{\frac{k \cdot CME}{N}}\]
donde \(q_{\alpha}(k, N-k)\) es el valor crítico de la distribución del rango studentizado para los parámetros \(k\) y \(N-k\), que se obtiene de una tabla para los niveles de significancia \(\alpha = 0.05\) o \(0.01\).
El intervalo de confianza para la diferencia entre dos medias \(\mu_i - \mu_j\) con nivel de confianza \(1 - \alpha\) está dado por:
\[\bar{Y}_i - \bar{Y}_j \pm HSD.\]
En un estudio experimental se comparan seis tratamientos diferentes aplicados a una misma población con el fin de analizar su efecto sobre una variable cuantitativa de interés. Se ha diseñado un experimento completamente aleatorizado, con cinco observaciones independientes para cada tratamiento.
Luego de aplicar un análisis de varianza (ANOVA), se obtuvo un valor del cuadrado medio del error igual a CME = 2,45 con 24 grados de libertad. A partir de este resultado, se desea realizar un análisis post hoc para identificar cuáles tratamientos presentan diferencias estadísticamente significativas en sus medias.
Para ello, se utilizará el método de Tukey para comparaciones múltiples por pares, con un nivel de significancia \(\alpha = 0{,}05\), considerando los siguientes promedios muestrales ordenados en forma creciente:
\[ \bar{y}_2 = 14{,}50, \quad \bar{y}_5 = 16{,}75, \quad \bar{y}_1 = 19{,}84, \quad \bar{y}_3 = 21{,}12, \quad \bar{y}_6 = 22{,}90, \quad \bar{y}_4 = 23{,}20 \]
El objetivo es determinar qué pares de tratamientos presentan diferencias significativas, utilizando el estadístico de Tukey y el umbral HSD correspondiente.
Solución
- Tenemos los siguientes datos
Code
Por lo tanto, las diferencias absolutas se comparan
## [1] 3.060856
Como resultado, las siguientes representan las medias encontradas que son significativamente diferentes con el método de Tukey:
Code
# Etiquetas de tratamientos (siguiendo orden de las medias)
tratamientos <- c("Y2", "Y5", "Y1", "Y3", "Y6", "Y4")
# Matriz de comparaciones por pares
comparaciones <- combn(1:k, 2, function(idx) {
i <- idx[1]
j <- idx[2]
dif <- abs(medias[i] - medias[j])
c(Tratamiento_1 = tratamientos[i],
Tratamiento_2 = tratamientos[j],
Diferencia = round(dif, 3),
Diferentes = ifelse(dif > HSD, "Sí", "No"))
})
# Convertir a tabla
comparacion_tukey <- as.data.frame(t(comparaciones), stringsAsFactors = FALSE)
names(comparacion_tukey) <- c("Grupo 1", "Grupo 2", "Diferencia", "¿Significativa?")
# Mostrar resultados
comparacion_tukey## Grupo 1 Grupo 2 Diferencia ¿Significativa?
## 1 Y2 Y5 2.25 No
## 2 Y2 Y1 5.34 Sí
## 3 Y2 Y3 6.62 Sí
## 4 Y2 Y6 8.4 Sí
## 5 Y2 Y4 8.7 Sí
## 6 Y5 Y1 3.09 Sí
## 7 Y5 Y3 4.37 Sí
## 8 Y5 Y6 6.15 Sí
## 9 Y5 Y4 6.45 Sí
## 10 Y1 Y3 1.28 No
## 11 Y1 Y6 3.06 No
## 12 Y1 Y4 3.36 Sí
## 13 Y3 Y6 1.78 No
## 14 Y3 Y4 2.08 No
## 15 Y6 Y4 0.3 No
La función TukeyHSD() del paquete stats nos muestra los grupos diferentes. Para ello usemos los datos de porcentajes (en microgramos) de concentración plasmática de una sustancia química
Code
Organicemos los datos
Code
## # A tibble: 6 × 2
## Grupo Concentracion
## <chr> <dbl>
## 1 Empleados 0.66
## 2 Agricultores 0.65
## 3 NoExpuestos 0.93
## 4 Empleados 0.63
## 5 Agricultores 0.6
## 6 NoExpuestos 0.99
Apliquemos el ANOVA y la prueba Tukey
Code
## Df Sum Sq Mean Sq F value Pr(>F)
## Grupo 2 0.3544 0.1772 12.57 0.000205 ***
## Residuals 23 0.3242 0.0141
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Code
## Tukey multiple comparisons of means
## 95% family-wise confidence level
##
## Fit: aov(formula = Concentracion ~ Grupo, data = df_largo)
##
## $Grupo
## diff lwr upr p adj
## Empleados-Agricultores -0.1148571 -0.26137992 0.03166563 0.1441473
## NoExpuestos-Agricultores 0.1582540 0.00841685 0.30809109 0.0371048
## NoExpuestos-Empleados 0.2731111 0.13650025 0.40972198 0.0001314
Se concluye que los niveles de concentración plasmática en el grupo no expuestos son significativamente mayores que en los otros dos grupos. Esto sugiere que la exposición de los grupos empleados y agricultores podría estar asociada a una reducción en los niveles observados del compuesto químico.
Investiga sobre el método de LSD (diferencia mínima significativa) y el método de Duncan
Con los datos de calificaciones por grupo de enseñanza, aplica los métodos de Tukey, LSD y Duncan.
4.6 Kruskal–Wallis
El test de Kruskal–Wallis, también llamado test H, es la alternativa no paramétrica al análisis de varianza (ANOVA) de una vía cuando los datos no cumplen con los supuestos de normalidad o cuando las variables se miden en una escala ordinal. Es una extensión del test de Mann–Whitney para comparar más de dos grupos, y se basa en los rangos de los datos en lugar de sus valores originales.
A diferencia del ANOVA, que compara medias, el test de Kruskal–Wallis evalúa si las muestras provienen de la misma distribución. En la práctica, suele interpretarse como una comparación de medianas bajo ciertas condiciones.
4.6.1 Hipótesis del test
- \(H_0\): todas las muestras provienen de la misma población (misma distribución).
- \(H_A\): al menos una muestra proviene de una población con distribución distinta.
4.6.2 Estadístico de prueba
Para realizar el test, se ordenan todas las observaciones de menor a mayor, se les asignan rangos y se calcula el estadístico \(H\) mediante la fórmula:
\[ H = \frac{12}{N(N+1)} \sum_{i=1}^{k} \frac{R_i^2}{n_i} - 3(N+1) \]
donde
- \(N\) es el número total de observaciones,
- \(k\) es el número de grupos,
- \(R_i\) es la suma de rangos del grupo \(i\),
- \(n_i\) es el tamaño del grupo \(i\).
4.6.3 Condiciones del test de Kruskal–Wallis
- No se requiere que los datos provengan de una distribución normal.
- Se asume homocedasticidad: las muestras deben tener varianzas similares.
- La forma de las distribuciones debe ser igual entre grupos, aunque no necesariamente normal.
- Es adecuado cuando los datos tienen un orden natural o son ordinales.
El estadístico \(H\) se compara con una distribución \(\chi^2\) con \(k - 1\) grados de libertad. Si el número de grupos es 3 y el tamaño de muestra por grupo es pequeño (≤5), se recomienda utilizar valores críticos tabulados.
4.6.4 Comparaciones Post-Hoc
Si el test de Kruskal–Wallis resulta significativo, indica que al menos dos grupos difieren, pero no especifica cuáles. Para identificarlos, se debe aplicar un análisis post-hoc que corrija el nivel de significancia para múltiples comparaciones.
Dos opciones frecuentes en R:
- Prueba de Mann–Whitney para pares de grupos con corrección de p-valor:
En un estudio sobre el rendimiento cognitivo, se evaluó el tiempo de reacción (en milisegundos) de un grupo de participantes después de ser entrenados con tres métodos diferentes de estimulación mental: Método A, Método B y Método C. Cada uno de los métodos fue aplicado a un grupo de 18 personas seleccionadas aleatoriamente.
Al finalizar las sesiones de entrenamiento, a todos los participantes se les aplicó una prueba de reacción ante estímulos visuales. A continuación, se registraron sus tiempos de respuesta.
Dado que los datos muestran alta variabilidad y posibles valores extremos, se empleará una prueba estadística no paramétrica con el fin de comparar las distribuciones de los tiempos de reacción entre los tres métodos.
El objetivo del análisis es determinar si existen diferencias significativas en los tiempos de reacción entre al menos dos de los métodos utilizados.
Code
# Crear conjunto de datos
datos <- data.frame(
metodo = c(rep("Metodo_A", 18), rep("Metodo_B", 18), rep("Metodo_C", 18)),
tiempo_reaccion = c(
1, 2, 3, 4, 5, 6, 7, 8, 9, 16, 27, 28, 29, 30, 51, 52, 53, 342, # Método A
40, 41, 42, 43, 44, 45, 46, 47, 48, 67, 88, 89, 90, 91, 92, 93, 94, 293, # Método B
19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 25, 36, 37, 58, 59, 60, 71, 72 # Método C
)
)Solución
Realiza el análisis exploratorio del conjunto de datos
- Verifiquemos la prueba de normalidad
Code
## # A tibble: 3 × 4
## metodo n estsw p_sw
## <chr> <int> <dbl> <dbl>
## 1 Metodo_A 18 0.445 0.000000275
## 2 Metodo_B 18 0.575 0.00000383
## 3 Metodo_C 18 0.790 0.00111
La prueba de Shapiro-Will muestra que cada método no tienen comportamiento de una distribución normal.
- Probemos homogeneidad de varianzas
## Warning in leveneTest.default(y = y, group = group, ...): group coerced to
## factor.
## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 2 0.7929 0.458
## 51
La prueba de Levene nos muestra que no se encuentra evidencia estadísticamente significativa para rechazar la hipótesis nula de homogeneidad de varianzas (\(F_{(2,51)}=0.79, p-valor = 0.458\)). En consecuencia, se concluye que los tres métodos presentan varianzas similares en los tiempos de reacción, y por tanto, se cumple uno de los supuestos fundamentales para la aplicación de pruebas estadísticas comparativas.
- Veamos si hay diferencias en los métodos
##
## Kruskal-Wallis rank sum test
##
## data: tiempo_reaccion by metodo
## Kruskal-Wallis chi-squared = 19.964, df = 2, p-value = 4.623e-05
La prueba de Kruskal-Wallis nos indica que existen diferencias estadísticamente significativas en los tiempos de reacción entre al menos dos de los métodos aplicados (\(\chi^2_{(2)}=19.964, p-valor < 0.0001\))
- Apliquemos una prueba post-hoc para ver que métodos son diferentes
Code
##
## Pairwise comparisons using Wilcoxon rank sum test with continuity correction
##
## data: datos$tiempo_reaccion and datos$metodo
##
## Metodo_A Metodo_B
## Metodo_B 0.00068 -
## Metodo_C 0.14386 0.00087
##
## P value adjustment method: bonferroni
Con base en el ajuste de Bonferroni, se encontraron diferencias estadísticamente significativas entre los pares método A vs B y método B vs C (p < 0.001 en ambos casos). No se detectó una diferencia significativa entre método A y método C (p = 0.14386). Esto sugiere que el método B se comporta de forma diferente respecto a los otros dos en términos de tiempo de reacción.
Cuando se realizan múltiples comparaciones estadísticas, es necesario ajustar los valores-p para controlar el error de tipo I acumulado (la probabilidad de detectar falsos positivos). Dos métodos comunes para este ajuste son Bonferroni y Holm.
A continuación, se presenta una comparación entre ambos métodos:
| Característica | Bonferroni | Holm |
|---|---|---|
| Tipo de ajuste | Fijo (directo) | Secuencial (jerárquico) |
| Fórmula | \(p_i^\text{ajustado} = m \cdot p_i\) | Ajuste por posición en orden ascendente |
| Conservadurismo | Muy conservador | Menos conservador |
| Potencia estadística | Baja | Alta |
| ¿Rechaza más hipótesis? | No necesariamente | Sí |
| Controla el FWER | Sí | Sí |
| Uso en R |
method = “bonferroni”
|
method = “holm”
|
En la práctica, Holm es preferido cuando se desea mantener un buen control del error sin perder demasiada potencia estadística, mientras que Bonferroni puede utilizarse cuando se requiere máxima precaución (por ejemplo, en estudios clínicos).