Evaluación de pruebas informatizadas aplicando la teoría clásica de los test y la teoría de respuesta al ítem
DOI:
https://doi.org/10.21704/ac.v81i2.1638Palabras clave:
Pruebas informatizadas, teoría clásica de los test, teoría de respuesta al ítem, modelos logísticos binarios, calibración de la prueba.Resumen
El objetivo del presente estudio fue evaluar la confiabilidad y validez de las pruebas informatizadas vía Web a través de la medición de sus propiedades psicométricas y estadísticas aplicando la Teoría Clásica del Test (TCT) y la Teoría de Respuesta al Ítem (TRI). Se aplicó la metodología de la TCT para evaluar la dificultad y de discriminación del test y los ítems. Se ajustaron los datos a los modelos logísticos binarios TRI de un, dos y tres parámetros. Un test informatizado de 30 preguntas se aplicó a 775 estudiantes matriculados en el curso de Estadística Básica en el semestre 2016 II. Los resultados indicaron una confiabilidad buena del test con un alfa de Cronbach de 0,833 y fue corroborada con una correlación de 0,815. Para la TCT el índice de dificultad identificó tres preguntas muy fáciles (V7, V8 y V12) y el índice de discriminación no encontró ninguna pregunta para retirarla. El supuesto de la unidimensionalidad con el análisis factorial fue probado con una variancia explicada del primer factor de 24,7%. El modelo logístico binario de la TRI de tres parámetros (3PL) se ajustó mejor a los datos. Para el proceso de calibración con el modelo 3PL, se retiraron las preguntas V28 (índice de discriminación mayor 0,65); V8, V12, V16 y V18 (índice del azar mayores a 0,4) y ninguna con el índice de dificultad.
Descargas
Referencias
• Akaike, H. (1974). A new look at the statistical identification model. IEEE Transactions on Automactic Control, 6. 716-723pp.
• Averaño, B.L. (2003). Teoría de Respuesta al Ítem. Otra alternativa para la Medición y Evaluación. Suma Psicológica, 10(2), 235-245.
• Bulut, O. (2015). Applying Item Response Theory Models to Entrance Examination for Graduate Studies: Practical Issues and Insights. Journal of Measurement and Evaluation in Education an Psychology, 6(2), 313-330.
• Carmines, E.G., & Zeller, R.A. (1979). Reliability and Validity Assessment. https://dx.doi.org/10.4135/9781412985642
• Davey, T. (2005). Computer-based testing. Encyclopedia of statistics in behavioral science. ISBN: 978-0-470-86080-9
• Fan, X. (1998). Item response theory and classical test theory: an empirical comparison of their item/person statistics. Educational and Psychological Measurem. June 1998 58(3), 357-382.
• George, D., & Mallery, P. (1995). SPSS/PC+ step by step: A simple guide and reference. 11.0 update (4th ed.). Boston: Allyn & Bacon.
• Gonzáles, J., Cabrera, E., Montenegro, E., Nettle, A., & Guevara, M. (2010). Condicionamiento del modelo logístico para la evaluación informatizada de competencias matemáticas. Ciencia, Docencia y Tecnología, 41, 173-191.
• Lord, F.M. (1952). A theory of test scores.Psychometric Monographs N° 7.
• Martínez, D. (1990). Psicometría: Teoría de los Tests Psicológicos y Educativos. Ed. Pirámide.
• Muñiz, J. (2010). Las Teoría de los Tests: Teoría Clásica y Teoría de Respuesta a los Ítems. Papeles del Psicólogo, 3 (1): 57-66.
• Muñiz, J., & Hambleton, R.K. (1992). Medio siglo de teoría de respuesta a los ítems. Anuario de Psicología, 52(1), 41-66.
• Navas, M.S. (1994). Teoría Clásica de los Test versus Teoría de Respuesta al ítem. Psicología 15. UNED, Madrid, pp. 175-208.
• Olea, J., Ponsoda, V., & Prieto, G. (1999). Tests Informatizados: Fundamentos y Aplicaciones. Colección Psicología. Madird, España. Ed. Prirámide.
• Omobola, O. A., & Adedoyin, J. A. (2013). Assessing the comparability between classical test theory (CTT) and item response theory (IRT) models in estimating test item parameters. Herald Journal of Education and General Studies, 2 (3), 107-114.
• Progar, S., Socan, G., & Pec, M. (2008). An empirical comparison of Item Response Theory and Classical Test Theory. Psihološka obzorja / Horizons of Psychology, 17(3), 5-24.
• Reckase, M.D. (1979). Unifactor latent trait models applied to multifactor tests: Results and implications. Journal of Education Statistic, 207-230.
• Schwarz, E. (1978). Estimating the dimension of a model. The Annals of Statistics, 461-464.
• Spearman, C. (1913). Correlations of sums and differences. Journal of Psychology, 5: 417-426.
• Sudol, L., & Studer, C. (2010). Analyzing Test Items:Using Item Response Theory to Validate Assessments. ACM, pp. 436-440.
• Zanon, C., Htz, C., Yoo, H., & Hambleton, R. (2016). An application of item response theory to psychological test development. 18-29.
• Zwick, R. (1987). Assessing the dimensionality of NAEP reading data. Journal of Educational Meusurement, 293-308.
Descargas
Publicado
Número
Sección
Licencia
Derechos de autor 2020 César Higinio Menacho Chiok, Jesús María Cano Alva Trinidad
Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.