Select Page

Resumen

En libros y cursos de estadística se suele enseñar el método inferencial de la prueba de hipótesis como la unión de los métodos de Fisher y Neyman-Pearson. La conjunción de estos dos métodos, creados con distinto propósito, genera dificultades epistemológicas en su comprensión y aplicación, haciéndola susceptible de conclusiones e interpretaciones incorrectas al apoyarse únicamente en la significación estadística. Es un hecho conocido que para un tamaño de muestra grande todas las hipótesis se rechazan. Se podría elaborar una herramienta que encuentre, en una gran base de datos, el tamaño de muestra a partir del cual se empieza a rechazar la hipótesis nula, con el propósito de hacer conciencia en los estudiantes de la importancia del tamaño del efecto como elemento necesario, aunado a los intervalos de confianza, potencia, al estadístico de prueba y el valor p que lo acompaña, para tomar una decisión. Se lograría así una cultura de utilizar y reportar varias herramientas para justificar las conclusiones e importancia de los hallazgos encontrados en un estudio evitando cometer errores de tipo I al aumentar el tamaño de la potencia debido al aumento del tamaño de muestra en grandes bases de datos.

Palabras clave:

Rechazo hipótesis nula; error tipo I; tamaño del efecto, simulación;
grandes bases de datos.

CVT2021-logo

Autor(es)

Lino González, Montserrat
Universidad Autónoma de Querétaro
montserrat.lino@uaq.mx
ORCID: https://orcid.org/0000-0002-6412-7890

Chaparro Sánchez, Ricardo
Universidad Autónoma de Querétaro
rchapa@uaq.mx
ORCID: https://orcid.org/0000-0002-6842-2360

Ruiz Velasco-Acosta, Silvia
Universidad Nacional Autónoma de México
silvia@sigma.iimas.unam.mx
ORCID: https://orcid.org/0000-0002-9220-2368

 

Descarga la ponencia