Evaluación de pruebas informatizadas aplicando la teoría clásica de los test y la teoría de respuesta al ítem

Autores/as

  • César Higinio Menacho Chiok Facultad de Economía y Planificación, Universidad Nacional Agraria La Molina, 15024, Lima, Perú. https://orcid.org/0000-0003-1310-2551
  • Jesús María Cano Alva Trinidad Facultad de Economía y Planificación, Universidad Nacional Agraria La Molina, 15024, Lima, Perú.

DOI:

https://doi.org/10.21704/ac.v81i2.1638

Palabras clave:

Pruebas informatizadas, teoría clásica de los test, teoría de respuesta al ítem, modelos logísticos binarios, calibración de la prueba.

Resumen

El objetivo del presente estudio fue evaluar la confiabilidad y validez de las pruebas informatizadas vía Web a través de la medición de sus propiedades psicométricas y estadísticas aplicando la Teoría Clásica del Test (TCT) y la Teoría de Respuesta al Ítem (TRI). Se aplicó la metodología de la TCT para evaluar la dificultad y de discriminación del test y los ítems. Se ajustaron los datos a los modelos logísticos binarios TRI de un, dos y tres parámetros. Un test informatizado de 30 preguntas se aplicó a 775 estudiantes matriculados en el curso de Estadística Básica en el semestre 2016 II. Los resultados indicaron una confiabilidad buena del test con un alfa de Cronbach de 0,833 y fue corroborada con una correlación de 0,815. Para la TCT el índice de dificultad identificó tres preguntas muy fáciles (V7, V8 y V12) y el índice de discriminación no encontró ninguna pregunta para retirarla. El supuesto de la unidimensionalidad con el análisis factorial fue probado con una variancia explicada del primer factor de 24,7%. El modelo logístico binario de la TRI de tres parámetros (3PL) se ajustó mejor a los datos. Para el proceso de calibración con el modelo 3PL, se retiraron las preguntas V28 (índice de discriminación mayor 0,65); V8, V12, V16 y V18 (índice del azar mayores a 0,4) y ninguna con el índice de dificultad.

Descargas

Los datos de descarga aún no están disponibles.

Referencias

• Akaike, H. (1974). A new look at the statistical identification model. IEEE Transactions on Automactic Control, 6. 716-723pp.

• Averaño, B.L. (2003). Teoría de Respuesta al Ítem. Otra alternativa para la Medición y Evaluación. Suma Psicológica, 10(2), 235-245.

• Bulut, O. (2015). Applying Item Response Theory Models to Entrance Examination for Graduate Studies: Practical Issues and Insights. Journal of Measurement and Evaluation in Education an Psychology, 6(2), 313-330.

• Carmines, E.G., & Zeller, R.A. (1979). Reliability and Validity Assessment. https://dx.doi.org/10.4135/9781412985642

• Davey, T. (2005). Computer-based testing. Encyclopedia of statistics in behavioral science. ISBN: 978-0-470-86080-9

• Fan, X. (1998). Item response theory and classical test theory: an empirical comparison of their item/person statistics. Educational and Psychological Measurem. June 1998 58(3), 357-382.

• George, D., & Mallery, P. (1995). SPSS/PC+ step by step: A simple guide and reference. 11.0 update (4th ed.). Boston: Allyn & Bacon.

• Gonzáles, J., Cabrera, E., Montenegro, E., Nettle, A., & Guevara, M. (2010). Condicionamiento del modelo logístico para la evaluación informatizada de competencias matemáticas. Ciencia, Docencia y Tecnología, 41, 173-191.

• Lord, F.M. (1952). A theory of test scores.Psychometric Monographs N° 7.

• Martínez, D. (1990). Psicometría: Teoría de los Tests Psicológicos y Educativos. Ed. Pirámide.

• Muñiz, J. (2010). Las Teoría de los Tests: Teoría Clásica y Teoría de Respuesta a los Ítems. Papeles del Psicólogo, 3 (1): 57-66.

• Muñiz, J., & Hambleton, R.K. (1992). Medio siglo de teoría de respuesta a los ítems. Anuario de Psicología, 52(1), 41-66.

• Navas, M.S. (1994). Teoría Clásica de los Test versus Teoría de Respuesta al ítem. Psicología 15. UNED, Madrid, pp. 175-208.

• Olea, J., Ponsoda, V., & Prieto, G. (1999). Tests Informatizados: Fundamentos y Aplicaciones. Colección Psicología. Madird, España. Ed. Prirámide.

• Omobola, O. A., & Adedoyin, J. A. (2013). Assessing the comparability between classical test theory (CTT) and item response theory (IRT) models in estimating test item parameters. Herald Journal of Education and General Studies, 2 (3), 107-114.

• Progar, S., Socan, G., & Pec, M. (2008). An empirical comparison of Item Response Theory and Classical Test Theory. Psihološka obzorja / Horizons of Psychology, 17(3), 5-24.

• Reckase, M.D. (1979). Unifactor latent trait models applied to multifactor tests: Results and implications. Journal of Education Statistic, 207-230.

• Schwarz, E. (1978). Estimating the dimension of a model. The Annals of Statistics, 461-464.

• Spearman, C. (1913). Correlations of sums and differences. Journal of Psychology, 5: 417-426.

• Sudol, L., & Studer, C. (2010). Analyzing Test Items:Using Item Response Theory to Validate Assessments. ACM, pp. 436-440.

• Zanon, C., Htz, C., Yoo, H., & Hambleton, R. (2016). An application of item response theory to psychological test development. 18-29.

• Zwick, R. (1987). Assessing the dimensionality of NAEP reading data. Journal of Educational Meusurement, 293-308.

Descargas

Publicado

2020-12-30

Número

Sección

Artículos originales / Negocios, Gestión y Contabilidad

Cómo citar

Menacho Chiok, C. H., & Alva Trinidad, J. M. C. (2020). Evaluación de pruebas informatizadas aplicando la teoría clásica de los test y la teoría de respuesta al ítem. Anales Científicos, 81(2), 278-288. https://doi.org/10.21704/ac.v81i2.1638