Más sobre ciencia de datos en cienciadedatos.net
Versión PDF: Github
Una de las opciones cuando se quiere comparar una variable continua entre dos grupos consiste en comparar los resultados promedio obtenidos para cada uno. El hecho de que los valores promedio de cada grupo no sean iguales no implica que haya evidencias de una diferencia significativa. Dado que cada grupo tiene su propia variabilidad, aunque el tratamiento no sea eficaz, las medias muestrales no tienen por qué ser exactas.
Para estudiar si la diferencia observada entre las medias de dos grupos es significativa, se puede recurrir a métodos paramétricos como el basado en Z-scores o en la distribución T-student. En ambos casos, se pueden calcular tanto intervalos de confianza para saber entre que valores se encuentra la diferencia real de las medias poblacionales o test de hipótesis para determinar si la diferencia es significativa.
La distribución T-student se asemeja en gran medida a la distribución normal. Tiene como parámetros la media, la varianza y además incorpora a través de los grados de libertad una modificación que permite flexibilizar las colas en función del tamaño que tenga la muestra. A medida que se reduce el tamaño muestral, la probabilidad acumulada en las colas aumenta, siendo así menos estricta de lo cabría esperar en una distribución normal. Una distribución T-student con 30 o más grados de libertad es prácticamente igual a una distribución normal.
El número de grados de libertad de la distribución T-student se calcula:
Para estudiar una sola muestra: \(df= tamaño \ muestra - 1\)
Cuando se comparan dos muestras: existen varios métodos, uno de los utilizados es emplear los grados de libertad de la muestra de menor tamaño \(minimo((n_1 - 1),(n_2 - 1))\). En los programas informáticos se emplean métodos para ajustar de forma más precisa los grados de libertad.
Las condiciones para calcular intervalos de confianza o aplicar un test de hipótesis basados en la distribución T-student son las mismas que para el teorema del límite central.
Independencia: Las observaciones tienen que ser independientes unas de las otras. Para ello el muestreo debe ser aleatorio y el tamaño de la muestra inferior al 10% de la población.
Normalidad: Las poblaciones que se comparan tienen que distribuirse de forma normal. A pesar de que la condición de normalidad recae sobre las poblaciones, normalmente no se dispone de información sobre ellas por lo que las muestras (dado que son reflejo de la población) tiene que distribuirse de forma aproximadamente normal. En caso de cierta asimetría los t-test son considerablemente robustos cuando el tamaño de las muestras es mayor o igual a 30.
Igualdad de varianza (homocedasticidad): la varianza de ambas poblaciones comparadas debe de ser igual. Tal como ocurre con la condición de normalidad, si no se dispone de información de las poblaciones, esta condición se ha de asumir a partir de las muestras. En caso de no cumplirse esta condición se puede emplear un Welch Two Sample t-test. Esta corrección se incorpora a través de los grados de libertad permitiendo compensar la diferencia de varianzas pero con el inconveniente de que pierde precisión. El número de grados de libertad de un Welch Two Sample t-test viene dado por la siguiente función:
\[f=\frac{(\frac{\widehat{S}^{2}_{1}}{n_1} + \frac{\widehat{S}^{2}_{2}}{n_2})^2} {\frac{1}{n_1+1}(\frac{\widehat{S}^{2}_{1}}{n_1})^2 + \frac{1}{n_2+1}(\frac{\widehat{S}^{2}_{2}}{n_2})^2} - 2\]
Si las condiciones se cumplen se puede considerar que el parámetro estimado, en este caso la diferencia de medias muestrales \((\overline{X}_1 - \overline{X}_2)\) sigue una distribución T-student (grados libertad, mean = parámetro estimado, sd = SE)
El error estandár (SE) de una distribución T-student para comparar medias se define como la raíz cuadrada de la suma de las desviaciones típicas muestrales corregidas de cada grupo al cuadrado, divididas por el tamaño de cada muestra.
\[SE=\sqrt{\frac{\widehat{S}^{2}_{1}}{n_1} + \frac{\widehat{S}^{2}_{2}}{n_2}}\]
El proceso a seguir para calcular intervalos de confianza o test de hipótesis es el mismo que el seguido en el modelo Normal. La única diferencia es que en lugar de emplear Z-scores (cuantiles de la distribución normal) se emplean los T-scores (cuantiles de la distribución t-student).
El intervalo de confianza de la diferencia de medias independientes para un nivel de confianza de \(1-\alpha\) tiene la siguiente estructura:
\[[(\overline{X}_1 - \overline{X}_2) \pm t_{df, 1-\alpha/2} * \sqrt{\frac{\widehat{S}^{2}_{1}}{n_1} + \frac{\widehat{S}^{2}_{2}}{n_2}}]\]
El valor t depende del porcentaje de seguridad del intervalo de confianza que se quiera obtener. Se define como el valor (cuantil) para el cual en una distribución de student, con unos determinados grados de libertad, un porcentaje igual al porcentaje de confianza del intervalo queda comprendido entre el valor -t y el valor +t buscado.
Supóngase que se busca el valor t para un intervalo de confianza del 95% en una distribución t-student con 15 grados de libertad:
El valor t puede encontrarse en tablas tabuladas o mediante programas informáticos, en R el valor t para un determinado intervalo de confianza y grados de libertad se puede obtener con la función qt()
. t = qt(p = confianza del intervalo + (1-confianza intervalo)/2, df= , lower.tail = TRUE)
## [1] 2.13145
Los pasos a seguir para realizar un t-test de medias independientes son:
Hipótesis nula (\(H_0\)): por lo general es la hipótesis escéptica, la que considera que no hay diferencia o cambio. Suele contener en su definición el símbolo \(=\). En el caso de comparar dos medias independientes la hipótesis nula considera que \(\mu_1 =\mu_2\).
Hipótesis alternativa (\(H_A\)): considera que el valor real de la media poblacional es mayor, menor o distinto del valor que establece la Ho. Suele contener los símbolos \(>,<,\neq\). En el caso de comparar dos medias independientes la hipótesis alternativa considera que\(\mu_1 \neq \mu_2\).
El estadístico es el valor que se calcula a partir de la muestra y que se quiere extrapolar a la población de origen. En este caso es la diferencia de las medias muestrales \((\overline{X}_1 - \overline{X}_2)\).
Los test de hipótesis pueden ser de una cola o de dos colas. Si la hipótesis alternativa emplea “>” o “<” se trata de un test de una cola, en el que solo se analizan desviaciones en un sentido. Si la hipótesis alternativa es del tipo “diferente de” se trata de un test de dos colas, en el que se analizan posibles desviaciones en las dos direcciones. Solo se emplean test de una cola cuando se sabe con seguridad que las desviaciones de interés son en un sentido y únicamente si se ha determinado antes de observar la muestra, no a posteriori.
El nivel de significancia \(\alpha\) determina la probabilidad de error que se quiere asumir a la hora de rechazar la hipótesis nula. Se emplea como punto de referencia para determinar si el valor de p-value obtenido en el test de hipótesis es suficientemente bajo como para considerar significativas las diferencias observadas y por lo tanto rechazar \(H_0\). A menor valor de alpha, menor probabilidad de rechazar la hipótesis nula. Por ejemplo, si se considera \(\alpha = 0.05\), se rechazará la hipótesis nula en favor de la hipótesis alternativa si el p-value obtenido es menor que 0.05, y se tendrá una probabilidad del 5% de haber rechazado \(H_0\) cuando realmente es cierta. En nivel de significancia debe establecerse en función de que error sea más costoso:
Si las condiciones mencionadas previamente se cumplen, se puede considerar que: \[T = \frac{(\overline{X}_1 - \overline{X}_2) - (\mu_1 - \mu_2)}{SE} \sim t_{(df)}\] \[siendo \ \ SE= \sqrt{\frac{\widehat{S}^{2}_{1}}{n_1} + \frac{\widehat{S}^{2}_{2}}{n_2}}\] \(\widehat{S}\) es la cuasidesviación típica muestral o desviación típica muestral corregida.
\[pvalue = P(|T_{calculada}| >= t_{df,1-\alpha/2})\]
El tamaño del efecto o también llamado effect size es la diferencia neta observada entre los grupos de un estudio. No se trata de una medida de inferencia estadística ya que no se pretende identificar si las poblaciones son significativamente diferentes, sino que simplemente indica la diferencia observada entre muestras, independientemente de la varianza que tengan. Se trata de un parámetro que siempre debe acompañar a los p-values, ya que un p-value solo indica si hay evidencias significativas para rechazar la hipótesis nula pero no dice nada de si la diferencia es importante o práctica. Esto último se averigua mediante el tamaño del efecto.
En el caso de los t-test de medias independientes, existen dos medidas posibles del tamaño del efecto: la d de Cohen y la r de Pearson. Ambas son equivalentes y pueden transformarse de una a otra. Cada una de estas medidas tiene unas magnitudes recomendadas para considerar el tamaño del efecto como pequeño, mediano o grande. La función cohen.d() del paquete effsize permite calcular el tamaño del efecto de la diferencia de medias independientes.
D DE COHEN PARA T-TEST INDEPENDIENTES:
\[d= \frac{|diferencia \ de \ medias \ entre \ los \ grupos|}{sd}\]
Existen dos formas distintas se utilizan para calcular la sd conjunta de ambas muestras:
\[sd=\sqrt{\frac{(n-1)sd_1^2+(n-2)sd_2^2)}{n1+n2-2}}\] \[sd=\sqrt{\frac{sd_1^2+sd_2^2}{n1+n2}}\]
Los límites más utilizados para clasificar el tamaño del efecto con d-Cohen son:
R DE PEARSON PARA T-TEST INDEPENDIENTE:
\[r= \sqrt{t^2}{(t^2 + gl)}\]
Los límites más utilizados para clasificar el tamaño del efecto con r son:
Si el p-value es menor que el valor de \(\alpha\) seleccionado, existen evidencias suficientes para rechaza \(H_0\) en favor de \(H_A\)
Se quiere estudiar el efecto de un fármaco sobre el apetito, para ello se mide la ingesta de comida (gramos) de dos grupos de personas seleccionadas al azar. En vista de los resultados ¿Se puede considerar que el fármaco funciona para un nivel de significancia del 5%?
grupo | media muestral | \(\widehat{S}\) | n |
---|---|---|---|
control | 52.1 | 45.1 | 22 |
tratamiento | 27.1 | 26.4 | 22 |
\(H_0\): No hay diferencia entre las medias, \(media \ control - media \ tratamiento = 0\)
\(H_a\): Sí hay diferencia entre las medias, \(media \ control - media \ tratamiento \neq 0\)
media control - media tratamiento = 52.1-27.1 = 25
t-student, p-value test 2 colas
En este ejemplo no se dispone de los datos, por lo que se asume que se cumplen las condiciones.
\[\alpha = 0.05\]
Parámetro estimado = 25
Grados de libertad = min (22-1 , 22-1) = 21
SE(media control - media tratamiento) = \(\sqrt{\frac{\widehat{S}^{2}_{control}}{n_{control}} + \frac{\widehat{S}^{2}_{tratamiento}}{n_{tratamiento}}}\)
## [1] 11.14159
\[T = \frac{(\overline{X}_1 - \overline{X}_2) - (\mu_1 - \mu_2)}{SE} = \frac{25-0}{11.14} = 2.24\]
\[pvalue = P(t_{df=21} < -2.24) + P(t_{df=21} > 2.24)\]
## [1] 0.03603696
\[sd=\sqrt{\frac{(22-1)45.1^2+(22-2)26.4^2)}{22+22-2}}=36.73\]
\[d= \frac{|52.1 - 27.1|}{36.73}=0.68\]
p-value < \(\alpha\), hay evidencias significativas para rechazar Ho en favor de Ha, siendo el tamaño del efecto (d-Cohen) medio. Se pude considerar que el tratamiento funciona.
El datset births
del paquete openintro
contiene información sobre 150 nacimientos junto con información de las madres. Se quiere determinar si existen evidencias significativas de que el peso de los recién nacidos cuyas madres fuman (f) difiere de aquellos cuyas madres no fuman (nf).
\(H_0\): no hay diferencia entre las medias poblacionales: \(\mu(nf) - \mu(f) = 0\)
\(H_a\): si hay diferencia entre las medias poblacionales: \(\mu(nf) - \mu(f) \neq 0\)
Diferencia entre las medias muestrales:
smoker <- births %>% filter(smoke == "smoker") %>% pull(weight)
nonsmoker <- births %>% filter(smoke == "nonsmoker") %>% pull(weight)
mean(nonsmoker) - mean(smoker)
## [1] 0.4005
Independencia: Se trata de un muestreo aleatorio donde el tamaño de las muestras no supera el 10% de todos los nacimientos en carolina del norte. Se puede afirmar que los eventos son independientes.
Normalidad:
ggplot(births,aes(x = weight)) +
geom_histogram(aes(y = ..density.., colour = smoke)) +
facet_grid(.~ smoke) +
theme_bw() + theme(legend.position = "none")
par(mar = c(2, 2, 2, 2))
par(mfrow = c(1, 2))
qqnorm(nonsmoker, xlab = "", ylab = "",
main = "nonsmoker", col = "firebrick")
qqline(nonsmoker)
qqnorm(smoker, xlab = "", ylab = "",
main = "smoker", col = "springgreen4")
qqline(smoker)
##
## Shapiro-Wilk normality test
##
## data: smoker
## W = 0.89491, p-value = 0.0003276
##
## Shapiro-Wilk normality test
##
## data: nonsmoker
## W = 0.92374, p-value = 2.234e-05
Los gráficos qqnorm muestran asimetría hacia la izquierda y los test encuentran evidencias significativas de que los datos no proceden de poblaciones con distribución normal. Sin embargo, dado que el tamaño de cada grupo es mayor que 30 se puede considerar que el t-test sigue siendo suficientemente robusto, aunque es necesario mencionarlo en las conclusiones. Un test no paramétrico basado en la mediana (Mann-Withney-Wilcoxon test) o un test de Bootstraping serían más adecuados. Otra opción sería estudiar si los datos anómalos son excepciones que se pueden excluir del análisis.
Igualdad de varianza:
Existen varios test que permiten comparar varianzas. Dado que no se cumple el criterio de normalidad, uno de los recomendados es el test Leven o el test no paramétrico de Fligner-Killeen (ambos basados en la mediana).
ggplot(data = births) +
geom_boxplot(aes(x = smoke, y = weight, colour = smoke)) +
theme_bw() + theme(legend.position = "none")
##
## Fligner-Killeen test of homogeneity of variances
##
## data: weight by smoke
## Fligner-Killeen:med chi-squared = 0.56858, df = 1, p-value = 0.4508
Ninguno de los dos test encuentra evidencias significativas (para alpha = 0.05) de que las variancias sean distintas entre ambas poblaciones. Si las varianzas no fuesen iguales se tendría que realizar el t-test con la corrección de Welch.
\[\alpha = 0.05\]
R tiene una función integrada que permite realizar t-test para una o dos muestras, tanto con corrección (en caso de que las varianzas no sean iguales) como sin ella. Esta función devuelve tanto el p-value del test como el intervalo de confianza para la verdadera diferencia de medias.
t.test(
x = smoker,
y = nonsmoker,
alternative = "two.sided",
mu = 0,
var.equal = TRUE,
conf.level = 0.95
)
##
## Two Sample t-test
##
## data: smoker and nonsmoker
## t = -1.5517, df = 148, p-value = 0.1229
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -0.9105531 0.1095531
## sample estimates:
## mean of x mean of y
## 6.7790 7.1795
##
## Cohen's d
##
## d estimate: 0.2687581 (small)
## 95 percent confidence interval:
## lower upper
## -0.07488708 0.61240332
Dado que p-value (0.1229) es mayor que alpha (0.05) , no se dispone de evidencia suficiente para considerar que existe una diferencia entre el peso promedio de niños nacidos de madres fumadores y el de madres no fumadoras. El tamaño de efecto medido por d-Cohen es pequeño (0.27).
Dos medias son dependientes o pareadas cuando proceden de grupos o muestras dependientes, esto es, cuando existe una relación entre las observaciones de las muestras. Este escenario ocurre a menudo cuando los resultados se generan a partir de los mismos individuos bajo dos condiciones distintas. Por ejemplo, si se quiere comprobar el resultado de dos tipos de exámenes (lectura y escritura) sobre los alumnos de un colegio, es de esperar que alumnos que obtienen una alta calificación en un examen también lo hagan en el otro. Otro caso similar son los estudios médicos en los que se compara una característica pre-tratamiento y post-tratamiento sobre los mismos individuos.
Para poder determinar si los individuos (observaciones) han sufrido una diferencia significativa entre las condiciones \(X\) e \(Y\), se calcula para cada uno de ellos el cambio en la magnitud estudiada \(d_i = x_i - y_i\). A pesar de que no exista diferencia entre las dos condiciones (por ejemplo, que la presión sanguínea es igual antes y después del tratamiento), al calcular la diferencia entre el antes y después de cada individuo probablemente el valor no sea exactamente cero, ya que debido a la variabilidad se van a producir desviaciones por encima y por debajo de cero. Sin embargo, el promedio de todas las diferencias tenderá a cero (compensación de desviaciones). Es este promedio \((\mu_{diferencia})\) el que se estudia a través del estadístico muestral \(\overline{d} = \frac{\sum_{i=1}^n (x_{antes} - x_{después})}{n}\), determinando si el promedio de las diferencias observado en la muestra se aleja lo suficiente del valor nulo (cero, en caso de considerar que ambas medias son iguales) como para aceptar que el valor medio de ambos grupos no es el mismo.
Los test dependientes o pareados tienen la ventaja frente a los independientes de que se puede controlar mejor la variación no sistemática (la producida por variables no contempladas en el estudio) ya que se bloquean al estar examinado los mismos individuos dos veces, no dos grupos de individuos distintos.
Normalidad: Solo es aplicable si se puede asumir que las dos poblaciones que se comparan se distribuyen de forma normal. La normalidad se tiene que cumplir en las poblaciones. Sin embargo, cuando no se dispone de información sobre las poblaciones, la única forma de estimar su distribución es a partir de las muestras.
Varianza: No es necesario que las variancias de ambos grupos sean iguales (homocedasticidad no necesaria).
Si las condiciones mencionadas se cumplen, se puede considerar que:
\[ d\sim N(\mu_d, \sigma^2_d)\]
Como en la mayoría de casos en los que se aplica inferencia estadística se desconoce \(\mu\) y \(\sigma\), se emplean estimadores obtenidos a partir de las muestras:
\[\overline{d} \sim N(\overline{d}, \widehat{S}^2_{d})\]
\(H_0\): no hay diferencia entre las medias, el promedio de las diferencias es 0 (\(\mu_d = 0\)) o bien es un valor determinado (\(\Delta\)).
\(H_a\): sí hay diferencia entre las variables, (\(\mu_d \neq 0\)) o bien la diferencia es distinta al valor establecido en la hipótesis nula (\(\mu_d \neq \Delta\)).
El resto del proceso es el mismo que el seguido en un t-test para medias independientes:
\[T_{calculado}= \frac{\overline{d} - valor H_0}{SE}\]
Siendo el SE del promedio de las diferencias igual a la cuasidesviación típica muestral dividida entre la raíz cuadrada del número de pares de datos: \[\frac{\widehat{S}_{d}}{\sqrt{n}}\]
Un equipo de atletismo ha decidido contratar a un nuevo entrenador. Para decidir si al cabo de un año mantienen su contrato se selecciona aleatoriamente a 10 miembros del equipo y se cronometran sus tiempos en 100 metros lisos al inicio del año, al final del año se volverá a cronometrar a esos mismos 10 corredores. En vista de los datos obtenidos ¿Hay diferencia significativa entre el rendimiento de los corredores tras un año de entrenar con el nuevo instructor?
Se trata de un caso de estudio en el que las mediciones se realizan sobre los mismos individuos bajo dos condiciones distintas, se trata de datos pareados.
datos <- data.frame(
corredor = c(1:10),
antes = c(12.9, 13.5, 12.8, 15.6, 17.2, 19.2, 12.6, 15.3, 14.4, 11.3),
despues = c(12.7, 13.6, 12.0, 15.2, 16.8, 20.0, 12.0, 15.9, 16.0, 11.1)
)
head(datos, 4)
Al tratarse de datos pareados, interesa conocer la diferencia en cada par de observaciones.
## antes despues diferencia
## 14.48 14.53 -0.05
\(H_0\): no hay diferencia entre el tiempo medio de los corredores al inicio y al final del año. El promedio de las diferencias es cero (\(\mu_d = 0\)).
\(H_a\): sí hay diferencia entre el tiempo medio de los corredores al inicio y al final del año. El promedio de las diferencias no es cero (\(\mu_d \neq 0\)).
El estadístico es el valor que se calcula a partir de la muestra y que se quiere extrapolar a la población de origen. En este caso es el promedio de las diferencias entre cada par de observaciones \(\overline{d}=-0.05\).
Los test de hipótesis pueden ser de una cola o de dos colas. Si la hipótesis alternativa emplea “>” o “<” se trata de un test de una cola, en el que solo se analizan desviaciones en un sentido. Si se la hipótesis alternativa es del tipo “diferente de” se trata de un test de dos colas, en el que se analizan posibles desviaciones en las dos direcciones. Solo se emplean test de una cola cuando se sabe con seguridad que las desviaciones de interés son en un sentido y únicamente si se ha determinado antes de observar la muestra, no a posteriori.
En este caso solo se va a contratar al entrenador si el rendimiento ha mejorado, por lo que la hipótesis alternativa sería más exacta si se considera como (\(\mu_d > 0\)), es decir, que la media de tiempos al final del año es menor que al inicio.
\[\alpha = 0.05\]
El nivel de significancia \(\alpha\) determina la probabilidad de error que se quiere asumir a la hora de rechazar la hipótesis nula. Se emplea como punto de referencia para determinar si el valor de p-value obtenido en el test de hipótesis es suficientemente bajo como para considerar significativas las diferencias observadas y por lo tanto rechazar \(H_0\). A menor valor de alpha, menor probabilidad de rechazar la hipótesis nula. Por ejemplo, si se considera \(\alpha = 0.05\), se rechazará la hipótesis nula en favor de la hipótesis alternativa si el p-value obtenido es menor que 0.05, y se tendrá una probabilidad del 5% de haber rechazado \(H_0\) cuando realmente es cierta. En nivel de significancia debe establecerse en función de que error sea más costoso:
Error tipo I: Error de rechazar la \(H_0\) cuando realmente es cierta.
Error tipo II: Error de considerar como cierta \(H_0\) cuando realmente es falsa.
Método gráfico:
par(mar = c(2, 2, 2, 2))
par(mfrow = c(1, 2))
qqnorm(datos$antes, xlab = "", ylab = "", main = "antes")
qqline(datos$antes)
qqnorm(datos$despues, xlab = "", ylab = "", main = "despues")
qqline(datos$despues)
Método analítico:
##
## Shapiro-Wilk normality test
##
## data: datos$antes
## W = 0.94444, p-value = 0.6033
##
## Shapiro-Wilk normality test
##
## data: datos$despues
## W = 0.93638, p-value = 0.5135
Los gráficos qqnorm indican que las muestras se asemejan a los esperado en una población normal y los test de Saphiro-Wilk no muestran evidencias para descartar que las muestras procedan poblaciones sean normales (para un alpha de 0.05).
Parámetro estimado \(\overline{d}\) = mean(diferencia) = -0.05
grados de libertad = 10-1 = 9
SE(promedio de las diferencias) = \(\frac{\widehat{S}_{diferencia}}{\sqrt{n}} = \frac{0.7412452}{\sqrt{10}} = 0.2344023\)
\(T{calc} = \frac{\overline{d}}{SE} = \frac{-0.05}{0.2344023} = -0.2133085\)
\(pvalue = P(t_{df=9} < -0.2133085) + P(t_{df=9} > 0.2133085)\)
## [1] 0.83584
En el caso particular de los t-test dependientes solo es posible aplicar la d de Choen.
\[d= \frac{|media \ de \ las \ diferencias|}{sd(diferencias)}\]
\[d= \frac{|-0.05|}{0.7412)}=0.068\]
p-value > \(\alpha\), no hay evidencias significativas para rechazar \(H_0\) en favor de \(H_A\). No se pude considerar que el rendimiento de los atletas haya cambiado.
R contiene la función t.test()
que realiza un t.test con datos pareados si se le indica en el argumento. R calcula automáticamente las diferencias para cada evento, asumiendo que se las posiciones de cada vector se corresponden a los datos de un mismo individuo. Está función calcula además el intervalo de confianza para la diferencia de medias.
t.test(x = datos$antes, y = datos$despues, alternative = "two.sided",
mu = 0, paired = TRUE, conf.level = 0.95)
##
## Paired t-test
##
## data: datos$antes and datos$despues
## t = -0.21331, df = 9, p-value = 0.8358
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -0.5802549 0.4802549
## sample estimates:
## mean of the differences
## -0.05
##
## Cohen's d
##
## d estimate: -0.0169815 (negligible)
## 95 percent confidence interval:
## lower upper
## -0.1842481 0.1502851
sesion_info <- devtools::session_info()
dplyr::select(
tibble::as_tibble(sesion_info$packages),
c(package, loadedversion, source)
)
Open Intro Statistics by David M Diez, Christopher D Barr, Mine Çetinkaya-Rundel
Handbook of Biological Statistics by John H. McDonald¿Cómo citar este documento?
T-test por Joaquín Amat Rodrigo, disponible con licencia CC BY-NC-SA 4.0 en https://www.cienciadedatos.net/documentos/12_t-test
¿Te ha gustado el artículo? Tu ayuda es importante
Mantener un sitio web tiene unos costes elevados, tu contribución me ayudará a seguir generando contenido divulgativo gratuito. ¡Muchísimas gracias! 😊
Este material, creado por Joaquín Amat Rodrigo, tiene licencia Attribution-NonCommercial-ShareAlike 4.0 International.
Se permite:
Compartir: copiar y redistribuir el material en cualquier medio o formato.
Adaptar: remezclar, transformar y crear a partir del material.
Bajo los siguientes términos:
Atribución: Debes otorgar el crédito adecuado, proporcionar un enlace a la licencia e indicar si se realizaron cambios. Puedes hacerlo de cualquier manera razonable, pero no de una forma que sugiera que el licenciante te respalda o respalda tu uso.
NoComercial: No puedes utilizar el material para fines comerciales.
CompartirIgual: Si remezclas, transformas o creas a partir del material, debes distribuir tus contribuciones bajo la misma licencia que el original.