Más sobre ciencia de datos: cienciadedatos.net
El t-test, también conocido como prueba t de Student, es un test estadístico empleado para analizar si dos muestras proceden de poblaciones con la misma media. Para ello, cuantifica la diferencia entre la media de las dos muestras y, teniendo en cuenta la varianza de estas, estima cómo de probable es obtener una diferencia igual o mayor que la observada si la hipótesis nula de que las medias poblacionales son iguales fuese cierta. A la probabilidad estimada por el test se le conoce como p-value.
Un p-value mayor que un determinado límite, por ejemplo 5% o 1%, indica que la diferencia observada puede deberse al azar, por lo que no se rechaza la hipótesis nula. Por el contrario, cuando el p-value es menor que el límite seleccionado, se considera que existen evidencias suficientes para rechazar que las muestras proceden de poblaciones con misma media.
Cuando se dispone de dos muestras, el hecho de que sus valores promedio no sean exactamente iguales no implica que haya evidencias de una diferencia real. Dado que cada muestra tiene su propia variabilidad debida al muestreo aleatorio, aunque procedan de la misma población, las medias muestrales no tienen por qué ser iguales. Es aquí donde el t-test aporta valor. Es un test estadístico para comparar la media entre dos muestras.
Existen múltiples adaptaciones del t-test dependiendo si los datos son independientes o pareados, si la varianza es la misma en las dos muestras, o qué tipo de diferencias se quieren detectar. En este documento se muestra cómo utilizar las implementaciones disponibles en la librería Pingouin para realizar t-Test en python.
Dos muestras se consideran independientes si las observaciones se han obtenido de forma aleatoria y no guardan relación unas con otras.
Las hipótesis contrastadas por el t-test de muestras independientes son:
$H_0$: no hay diferencias entre las medias: $\mu_x = \mu_y$
$H_a$: sí hay diferencias entre las medias: $\mu_x \neq \mu_y$
El estadístico utilizado por el t-test de muestras independientes se calcula como:
$$t = \frac{\overline{x} - \overline{y}} {\sqrt{\frac{s^{2}_{x}}{n_{x}} + \frac{s^{2}_{y}}{n_{y}}}}$$donde $\overline{x}$ y $\overline{y}$ son las medias muestrales, $n_x$ y $n_y$ son el número de observaciones en cada muestra, $s^{2}_{x}$ y $s^{2}_{y}$ las varianzas de cada muestra.
El estadístico t sigue una distribución conocida como distribución t de Student. Esta distribución se asemeja en gran medida a la distribución normal, tiene como parámetros la media, la varianza y además, a través de los grados de libertad, permite flexibilizar las colas en función del tamaño que tenga la muestra. A medida que se reduce el tamaño muestral, la probabilidad acumulada en las colas aumenta, siendo así menos estricta de lo cabría esperar en una distribución normal. Una distribución t de Student con 30 o más grados de libertad es prácticamente igual a una distribución normal.
Existen varias formas para calcular los grados de libertad ($v$) de la distribución t de Student. Dos de los más utilizados son:
$$v = n_x + n_y - 2$$cuando el tamaño de las muestras es el mismo, y
$$v = \frac{(\frac{s^{2}_{x}}{n_{x}} + \frac{s^{2}_{y}}{n_{y}})^{2}} {\frac{(\frac{s^{2}_{x}}{n_{x}})^{2}}{(n_{x}-1)} + \frac{(\frac{s^{2}_{y}}{n_{y}})^{2}}{(n_{y}-1)}}$$cuando los tamaños no son iguales (desbalanceados). Esta última se conoce como la corrección de Welch–Satterthwaite.
Las condiciones de un t-test de muestras independientes, tanto para calcular intervalos de confianza como para contraste de hipótesis son:
Independencia
Las observaciones tienen que ser independientes unas de las otras. Para ello, el muestreo debe ser aleatorio y el tamaño de la muestra inferior al 10% de la población.
Normalidad
Las poblaciones que se comparan tienen que distribuirse de forma normal. A pesar de que la condición de normalidad recae sobre las poblaciones, normalmente no se dispone de información sobre ellas, por lo que las muestras (dado que son reflejo de la población) tienen que distribuirse de forma aproximadamente normal. En caso de cierta asimetría los t-test son considerablemente robustos cuando el tamaño de las muestras es igual o mayor a 30.
Igualdad de varianza (homocedasticidad)
La varianza de ambas poblaciones comparadas debe de ser igual. Tal como ocurre con la condición de normalidad, si no se dispone de información de las poblaciones, esta condición se ha de asumir a partir de las muestras. En caso de no cumplirse esta condición, se puede emplear la corrección de Welch. Esta corrección se incorpora a través de los grados de libertad y permite compensar la diferencia de varianzas. El número de grados de libertad de un Welch Two Sample t-test viene dado por la siguiente función:
$$f=\frac{(\frac{\widehat{S}^{2}_{x}}{n_x} + \frac{\widehat{S}^{2}_{y}}{n_y})^2} {\frac{1}{n_x+1}(\frac{\widehat{S}^{2}_{x}}{n_x})^2 + \frac{1}{n_y+1}(\frac{\widehat{S}^{2}_{y}}{n_y})^2} - 2$$Si las condiciones anteriores se cumplen, el parámetro estimado, en este caso la diferencia de medias muestrales ($\overline{x}$ - $\overline{y}$), sigue una distribución t de Student (grados libertad, mean = parámetro estimado, sd = SE)
El error estándar (SE) de una distribución t de Student para comparar medias se define como la raíz cuadrada de la suma de las varianzas, divididas por el tamaño de cada muestra.
$$SE=\sqrt{\frac{\widehat{S}^{2}_{x}}{n_x} + \frac{\widehat{S}^{2}_{y}}{n_y}}$$El proceso a seguir para calcular intervalos de confianza o test de hipótesis es el mismo que el seguido en el modelo Normal. La única diferencia es que, en lugar de emplear Z-scores (cuantiles de la distribución normal), se emplean los T-scores (cuantiles de la distribución t-student).
Los pasos a seguir para realizar un t-test con el objetivo de determinar si la diferencia entre medias es significativa son:
Establecer las hipótesis.
Calcular el estadístico (parámetro estimado) que se va a emplear.
Determinar el tipo de test, una o dos colas.
Determinar el nivel de significancia $\alpha$.
Cálculo de p-value y comparación con el nivel de significancia establecido.
Cálculo del tamaño del efecto (opcional pero recomendado).
Conclusiones.
Establecer las hipótesis
La hipótesis nula ($H_0$) es la hipótesis escéptica, la que considera que no hay diferencia o cambio. En el caso de comparar dos medias independientes la hipótesis nula considera que $\mu_1 =\mu_2$.
La hipótesis alternativa ($H_a$) considera que la hipótesis nula no se cumple. En el caso de comparar dos medias independientes, la hipótesis alternativa considera que $\mu_1 \neq \mu_2$.
Calcular el estadístico
El estadístico es el valor que se calcula a partir de la muestra y que se quiere extrapolar a la población de origen. En este caso, la diferencia de medias.
Determinar el tipo de test, una o dos colas
Los test de hipótesis pueden ser de una o de dos colas. Si la hipótesis alternativa emplea ">" o "<" se trata de un test de una cola, en el que solo se analizan desviaciones en un sentido. Si la hipótesis alternativa es del tipo "diferente de" se trata de un test de dos colas, en el que se analizan posibles desviaciones en las dos direcciones. Se recomienda emplear test de una cola solo cuando se sabe con seguridad que las desviaciones de interés es en un sentido y únicamente si se ha determinado antes de observar la muestra, no después.
Determinar el nivel de significancia $\alpha$
El nivel de significancia $\alpha$ determina la probabilidad de error que se quiere asumir a la hora de rechazar la hipótesis nula. Se emplea como punto de referencia para determinar si el p-value obtenido en el test de hipótesis es suficientemente bajo como para considerar significativas las diferencias observadas y. por lo tanto. rechazar $H_0$. A menor valor de $\alpha$, menor probabilidad de rechazar la hipótesis nula. Por ejemplo, si se considera $\alpha = 0.05$, se rechazará la hipótesis nula en favor de la hipótesis alternativa si el p-value obtenido es menor que 0.05, y se tendrá una probabilidad del 5% de haber rechazado $H_0$ cuando realmente es cierta. En nivel de significancia debe establecerse en función de que error sea más costoso:
Error tipo I: error de rechazar la hipótesis nula cuando realmente es cierta
Error tipo II: error de considerar como cierta la hipótesis nula cuando realmente es falsa.
Cálculo de p-value y comparación con el nivel de significancia
Utilizando una distribución t de Student, calcular la probabilidad de obtener un valor del estadístico t mayor o igual mayor que el observado.
Tamaño del efecto
El tamaño del efecto o también llamado effect size es la diferencia neta observada entre los grupos de un estudio. No es una inferencia estadística ya que no pretende identificar si las poblaciones son significativamente diferentes, sino que simplemente indica la diferencia observada entre muestras, independientemente de la varianza que tengan. Se trata de un parámetro que siempre debe acompañar a los p-values, ya que un p-value solo indica si hay evidencias significativas para rechazar la hipótesis nula pero no dice nada de si la diferencia es importante o práctica. Esto último se averigua mediante el tamaño del efecto.
En el caso del t-test de medias independientes, existen dos medidas posibles del tamaño del efecto: la d de Cohen y la r de Pearson. Ambas son equivalentes y pueden transformarse de una a otra. Cada una de estas medidas tiene unas magnitudes recomendadas para considerar el tamaño del efecto como pequeño, mediano o grande.
D DE COHEN
$$d= \frac{\text{|diferencia medias|}}{sd}$$Existen dos formas distintas se utilizan para calcular la sd conjunta de ambas muestras:
$$sd=\sqrt{\frac{n_x sd_x^2 + n_y sd_y^2}{n_x+n_y-2}}$$$$sd=\sqrt{\frac{sd_x^2+sd_y^2}{n_x+n_y}}$$Los límites más utilizados para clasificar el tamaño del efecto con d-Cohen son:
d $\leq$ 0.2 pequeño
d $\geq$ 0.5 mediano
d $=$ 0.8 grande
R DE PEARSON
$$r= \sqrt{t^2}{(t^2 + gl)}$$t = estadístico t obtenido en el test
gl = grados de libertad del test
Los límites más utilizados para clasificar el tamaño del efecto con r son:
d $\leq$ 0.1 pequeño
d $\geq$ 0.3 mediano
d $=$ 0.5 grande
Interpretación de los resultados
Si el p-value es menor que el valor de $\alpha$ seleccionado, existen evidencias suficientes para rechaza $H_0$ en favor de $H_a$
El intervalo de confianza de la diferencia de medias independientes para un nivel de confianza de 1−$\alpha$ tiene la siguiente estructura:
$$[(\overline{x} - \overline{y}) \pm t_{df, 1-\alpha/2} * \sqrt{\frac{\widehat{S}^{2}_{x}}{n_x} + \frac{\widehat{S}^{2}_{y}}{n_y}}]$$El valor $t$ depende del porcentaje de seguridad del intervalo de confianza que se quiera obtener. Se define como el valor (cuantil) para el cual en una distribución de Student, con unos determinados grados de libertad, un porcentaje igual al porcentaje de confianza del intervalo queda comprendido entre el valor $-t$ y el valor $+t$.
El valor $t$ puede encontrarse en tablas tabuladas o mediante programas informáticos. En python, el valor $t$ para un determinado intervalo de confianza y grados de libertad se puede obtener con la función scipy.stats.t.ppf
. Por ejemplo t.ppf(q=0.95 + 0.05/2, df=15, loc=0, scale=1)
.
El datset births del paquete de R openintro contiene información sobre 150 nacimientos así como información de las madres. Se quiere determinar si existen evidencias significativas de que el peso de los recién nacidos cuyas madres fuman (smoker) difiere de aquellos cuyas madres no fuman (nonsmoker).
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
from scipy import stats
import pingouin as pg
# Descarga de datos
# ==============================================================================
url = ('https://raw.githubusercontent.com/JoaquinAmatRodrigo/' +
'Estadistica-machine-learning-python/master/data/births.csv')
datos = pd.read_csv(url, sep=',')
datos.head(4)
$H_0$: no hay diferencia entre las medias poblacionales: $\mu(smoker) - \mu(nonsmoker) = 0$
$H_a$: si hay diferencia entre las medias poblacionales: $\mu(smoker) - \mu(nonsmoker) \neq 0$
Independencia
Se trata de un muestreo aleatorio donde el tamaño de las muestras no supera el 10% de todos los nacimientos en Carolina del Norte. Se puede afirmar que los eventos son independientes.
Normalidad
# Número de observaciones por grupo
# ==============================================================================
datos.groupby('smoke').size()
# Gráficos de distribución
# ==============================================================================
fig, axs = plt.subplots(2, 2, figsize=(10, 7))
peso_smokers = datos.loc[datos.smoke == 'smoker', 'weight']
# Valores de la media (mu) y desviación típica (sigma) de cada grupo
mu, sigma = stats.norm.fit(peso_smokers)
# Valores teóricos de la normal en el rango observado
x_hat = np.linspace(min(peso_smokers), max(peso_smokers), num=100)
y_hat = stats.norm.pdf(x_hat, mu, sigma)
# Gráfico distribución
axs[0, 0].plot(x_hat, y_hat, linewidth=2, label='normal')
axs[0, 0].hist(x=peso_smokers, density=True, bins=20, color="#3182bd", alpha=0.5)
axs[0, 0].plot(peso_smokers, np.full_like(peso_smokers, -0.01), '|k', markeredgewidth=1)
axs[0, 0].set_title('Distribución peso (smokers)')
axs[0, 0].set_xlabel('peso')
axs[0, 0].set_ylabel('Densidad de probabilidad')
axs[0, 0].legend()
# Gráfico distribución qq-plot
pg.qqplot(peso_smokers, dist='norm', ax=axs[0, 1])
peso_nonsmokers = datos.loc[datos.smoke == 'nonsmoker', 'weight']
mu, sigma = stats.norm.fit(peso_nonsmokers)
x_hat = np.linspace(min(peso_nonsmokers), max(peso_nonsmokers), num=100)
y_hat = stats.norm.pdf(x_hat, mu, sigma)
axs[1, 0].plot(x_hat, y_hat, linewidth=2, label='normal')
axs[1, 0].hist(x=peso_nonsmokers, density=True, bins=20, color="#3182bd", alpha=0.5)
axs[1, 0].plot(peso_nonsmokers, np.full_like(peso_nonsmokers, -0.01), '|k', markeredgewidth=1)
axs[1, 0].set_title('Distribución peso (nonsmokers)')
axs[1, 0].set_xlabel('peso')
axs[1, 0].set_ylabel('Densidad de probabilidad')
axs[1, 0].legend()
pg.qqplot(peso_nonsmokers, dist='norm', ax=axs[1, 1])
plt.tight_layout();
# Test de normalidad Shapiro-Wilk
# ==============================================================================
pg.normality(data=datos, dv='weight', group='smoke')
Los gráficos cuantil-cuantil muestran asimetría hacia la izquierda y el test Shapiro-Wilk encuentran evidencias significativas de que los datos no proceden de poblaciones con distribución normal. Sin embargo, dado que el tamaño de cada grupo es mayor que 30 se puede considerar que el t-test sigue siendo suficientemente robusto, aunque es necesario mencionarlo en las conclusiones. Una alternativa es recurrir a test no paramétrico basado en la mediana (Mann-Withney-Wilcoxon test) o un test de Bootstraping serían más adecuados. Otra opción es estudiar si los datos anómalos son excepciones que se pueden excluir del análisis.
Igualdad de varianza (homocedasticidad)
Existen varios test que permiten comparar varianzas. Dado que no se cumple el criterio de normalidad, uno de los recomendados es el test de Leven.
fig, ax = plt.subplots(1, 1, figsize=(8, 4))
sns.boxplot(y="smoke", x="weight", data=datos, ax=ax)
sns.swarmplot(y="smoke", x="weight", data=datos, color='black', alpha = 0.5, ax=ax);
# Test de homocedasticidad
# ==============================================================================
pg.homoscedasticity(data=datos, dv='weight', group='smoke')
No se encuentran evidencias significativas (para alpha = 0.05) de que las varianzas sean distintas entre ambas poblaciones. Si lo fuesen, se tendría que realizar el t-test con la corrección de Welch.
La función ttest
de paquete Pingouin calcula el p-value, intervalos de confianza y tamaño de efecto.
# Test para datos independientes (p-value, intervalos de confianza)
# ==============================================================================
peso_smokers = datos.loc[datos.smoke == 'smoker', 'weight']
peso_nonsmokers = datos.loc[datos.smoke == 'nonsmoker', 'weight']
pg.ttest(x=peso_smokers, y=peso_nonsmokers, alternative='two-sided', correction=False)
Dado que p-value (0.1229) es mayor que el nivel de significancia alpha (0.05) , no se dispone de evidencia suficiente para considerar que existe una diferencia real entre el peso promedio de niños nacidos de madres fumadores y el de madres no fumadoras. El tamaño de efecto medido por d-Cohen es pequeño (0.27).
Dos medias son dependientes o pareadas cuando proceden o muestras dependientes, esto es, cuando existe una relación entre las observaciones de las muestras. Este escenario aparece cuando los resultados se generan a partir de los mismos individuos bajo dos condiciones distintas. Dos ejemplos:
Comprobar el resultado de dos tipos de exámenes (lectura y escritura) sobre un grupo de alumnos de un colegio, donde cada alumno realiza los dos exámenes.
Estudios médicos en los que se compara una característica pre-tratamiento y post-tratamiento sobre los mismos individuos.
Para poder determinar si los individuos (observaciones) han sufrido una diferencia significativa entre las condiciones $A$ y $B$, se calcula para cada uno de ellos el cambio en la magnitud estudiada $d_i=A_i−B_i$. A pesar de que no exista diferencia real entre las dos condiciones, al calcular la diferencia entre el antes y después de cada individuo, probablemente el valor no sea exactamente cero, sin embargo, el promedio de todas las diferencias tenderá a cero (compensación de desviaciones). Es este promedio ($\mu_{diferencia}$) el que se estudia a través del estadístico muestral $\overline{d} = \frac{\sum_{i=1}^n (x_{antes} - x_{después})}{n}$, determinando si el promedio de las diferencias observado se aleja lo suficiente de cero como para aceptar que el valor medio de ambos grupos no es el mismo.
Los test dependientes o pareados tienen la ventaja frente a los independientes de que se puede controlar mejor la variación no sistemática (la producida por variables no contempladas en el estudio) ya que se bloquean al estar examinado los mismos individuos dos veces, no dos grupos de individuos distintos.
Normalidad
Las poblaciones que se comparan se deben distribuir de forma normal. Si bien la normalidad se tiene que cumplir en las poblaciones, cuando no se dispone de información sobre estas, la única forma de estimar su distribución es a partir de las muestras.
Varianza
No es necesario que las varianzas de ambos grupos sean iguales (homocedasticidad no necesaria).
Si las condiciones mencionadas se cumplen, se puede considerar que:
$$\overline{d} \sim N(\overline{d}, \widehat{S}^2_{d})$$Las hipótesis contrastadas por el t-test de muestras pareadas son:
$H_0$: no hay diferencia entre las medias, el promedio de las diferencias es 0 ($\mu_d = 0$) o bien es un valor determinado ($\Delta$).
$H_a$: sí hay diferencia entre las variables, ($\mu_d \neq 0$) o bien la diferencia es distinta al valor establecido en la hipótesis nula ($\mu_d \neq \Delta$).
El resto del proceso es el mismo que el seguido en un t-test para medias independientes:
$$T_{calculado}= \frac{\overline{d} - valor H_0}{SE}$$Siendo el SE del promedio de las diferencias igual a la cuasidesviación típica muestral dividida entre la raíz cuadrada del número de pares de datos:
$$\frac{\widehat{S}_{d}}{\sqrt{n}}$$Un equipo de atletismo ha contratado a un nuevo entrenador. Para poder decidir si, al cabo de un año, mantienen su contrato, se selecciona aleatoriamente a 10 miembros del equipo y se cronometran sus tiempos en 100 metros lisos al inicio. Al final del año, se volverá a cronometrar a esos mismos 10 corredores. En vista de los datos obtenidos ¿Hay diferencia significativa entre el rendimiento de los corredores tras un año de entrenar con el nuevo entrenador?
Se trata de un caso de estudio en el que, las mediciones, se realizan sobre los mismos individuos bajo dos condiciones distintas, se trata de datos pareados.
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
import pingouin as pg
datos = pd.DataFrame({
'corredor': range(1, 11),
'antes': [12.9, 13.5, 12.8, 15.6, 17.2, 19.2, 12.6, 15.3, 14.4, 11.3],
'despues': [12.7, 13.6, 12.0, 15.2, 16.8, 20.0, 12.0, 15.9, 16.0, 11.1]
})
datos.head()
Al tratarse de datos pareados, interesa conocer la diferencia en cada individuo.
datos['diferencia'] = datos['antes'] - datos['despues']
datos.head()
datos['diferencia'].describe()
$H_0$: no hay diferencia entre el tiempo medio de los corredores al inicio y al final del año. El promedio de las diferencias es cero ($\mu_d=0$).
$H_a$: sí hay diferencia entre el tiempo medio de los corredores al inicio y al final del año. El promedio de las diferencias no es cero ($\mu_d \neq 0$).
El estadístico es el valor que se calcula a partir de la muestra y que se quiere extrapolar a la población de origen. En este caso, es el promedio de las diferencias entre cada par de observaciones $\overline{d}=-0.5$.
Los test de hipótesis pueden ser de una cola o de dos colas. Si la hipótesis alternativa emplea “>” o “<” se trata de un test de una cola, en el que solo se analizan desviaciones en un sentido. Si se la hipótesis alternativa es del tipo “diferente de” se trata de un test de dos colas, en el que se analizan posibles desviaciones en las dos direcciones. Solo se emplean test de una cola cuando se sabe con seguridad que las desviaciones de interés son en un sentido y únicamente si se ha determinado antes de observar la muestra, no a posteriori.
En este caso, solo se va a contratar al entrenador si el rendimiento ha mejorado, por lo que la hipótesis alternativa sería más exacta si se considera como (\mu_d > 0), es decir, que la media de tiempos al final del año es menor que al inicio.
El nivel de significancia $\alpha$ determina la probabilidad de error que se quiere asumir a la hora de rechazar la hipótesis nula. Se emplea como punto de referencia para determinar si el valor de p-value obtenido en el test de hipótesis es suficientemente bajo como para considerar significativas las diferencias observadas y, por lo tanto, rechazar $H_0$. A menor valor de alpha, menor probabilidad de rechazar la hipótesis nula. Por ejemplo, si se considera $\alpha = 0.05$, se rechazará la hipótesis nula en favor de la hipótesis alternativa si el p-value obtenido es menor que 0.05, y se tendrá una probabilidad del 5% de haber rechazado $H_0$ cuando realmente es cierta. El nivel de significancia debe establecerse en función de que error sea más costoso:
Error tipo I: error de rechazar la $H_0$ cuando realmente es cierta.
Error tipo II: error de considerar como cierta $H_0$ cuando realmente es falsa.
datos
Normalidad
# Gráficos de distribución
# ==============================================================================
fig, axs = plt.subplots(2, 2, figsize=(10, 7))
# Valores de la media (mu) y desviación típica (sigma)
mu, sigma = stats.norm.fit(datos['antes'])
# Valores teóricos de la normal en el rango observado
x_hat = np.linspace(min(datos['antes']), max(datos['antes']), num=100)
y_hat = stats.norm.pdf(x_hat, mu, sigma)
# Gráfico distribución
axs[0, 0].plot(x_hat, y_hat, linewidth=2, label='normal')
axs[0, 0].hist(x=datos['antes'], density=True, bins=20, color="#3182bd", alpha=0.5)
axs[0, 0].plot(datos['antes'], np.full_like(datos['antes'], -0.01), '|k', markeredgewidth=1)
axs[0, 0].set_title('Distribución inicio del año')
axs[0, 0].set_xlabel('tiempo')
axs[0, 0].set_ylabel('Densidad de probabilidad')
axs[0, 0].legend()
# Gráfico distribución qq-plot
pg.qqplot(datos['antes'], dist='norm', ax=axs[0, 1])
mu, sigma = stats.norm.fit(datos['despues'])
x_hat = np.linspace(min(datos['despues']), max(datos['despues']), num=100)
y_hat = stats.norm.pdf(x_hat, mu, sigma)
axs[1, 0].plot(x_hat, y_hat, linewidth=2, label='normal')
axs[1, 0].hist(x=datos['despues'], density=True, bins=20, color="#3182bd", alpha=0.5)
axs[1, 0].plot(datos['despues'], np.full_like(datos['despues'], -0.01), '|k', markeredgewidth=1)
axs[1, 0].set_title('Distribución final del año')
axs[1, 0].set_xlabel('tiempo')
axs[1, 0].set_ylabel('Densidad de probabilidad')
axs[1, 0].legend()
pg.qqplot(datos['despues'], dist='norm', ax=axs[1, 1])
plt.tight_layout();
# Test de normalidad Shapiro-Wilk
# ==============================================================================
pg.normality(data=datos['antes'])
pg.normality(data=datos['despues'])
Los gráficos qqnorm indican que las muestras se asemejan a los esperado en una población normal y los test de Saphiro-Wilk no encuentran evidencias (alpha = 0.05) para rechazar que las muestras procedan de poblaciones normales.
# Test para datos dependientes (p-value, intervalos de confianza)
# ==============================================================================
pg.ttest(
x = datos['antes'],
y = datos['despues'],
alternative = 'two-sided',
paired = True,
correction = False
)
El p-value obtenido por el t-test pareado es superior al nivel de significancia establecido ($alpha = 0.05$), no hay evidencias para rechazar la hipótesis nula en favor de la hipótesis alternativa. No se puede considerar que el rendimiento de los atletas haya cambiado.
import session_info
session_info.show(html=False)
OpenIntro Statistics: Fourth Edition by David Diez, Mine Çetinkaya-Rundel, Christopher Barr
Statistics Using R with Biological Examples by Kim Seefeld, Ernst Linder
Handbook of Biological Statistics by John H. McDonald
Métodos estadísticos en ingeniería Rafael Romero Villafranca, Luisa Rosa Zúnica Ramajo
¿Cómo citar este documento?
T-test con Python por Joaquín Amat Rodrigo, disponible con licencia CC BY-NC-SA 4.0 en https://www.cienciadedatos.net/documentos/pystats10-t-test-python.html
¿Te ha gustado el artículo? Tu ayuda es importante
Mantener un sitio web tiene unos costes elevados, tu contribución me ayudará a seguir generando contenido divulgativo gratuito. ¡Muchísimas gracias! 😊
Este contenido, creado por Joaquín Amat Rodrigo, tiene licencia Attribution-NonCommercial-ShareAlike 4.0 International.
Se permite:
Compartir: copiar y redistribuir el material en cualquier medio o formato.
Adaptar: remezclar, transformar y crear a partir del material.
Bajo los siguientes términos:
Atribución: Debes otorgar el crédito adecuado, proporcionar un enlace a la licencia e indicar si se realizaron cambios. Puedes hacerlo de cualquier manera razonable, pero no de una forma que sugiera que el licenciante te respalda o respalda tu uso.
NoComercial: No puedes utilizar el material para fines comerciales.
CompartirIgual: Si remezclas, transformas o creas a partir del material, debes distribuir tus contribuciones bajo la misma licencia que el original.