Diseño y validación de un modelo de evaluación dinámica basado en la teoría de respuesta al ítem
Design and validation of a dynamic assessment model based on the item response theory
DOI:
https://doi.org/10.15446/rev.fac.cienc.v4n2.53174Palabras clave:
Teoría de respuesta al ítem, evaluación, estimación dinámica, 3PL (es)Item response theory, assessment, dynamic estimation, 3PL (en)
Descargas
El objetivo de este artículo es describir un modelo de evaluación basado en un proceso iterativo de selección de ítems a partir de una estimación dinámica del conocimiento del estudiante. La idea tras dicho modelo es lograr un equilibrio entre el progreso demostrado por el estudiante y la dificultad de los ítems que son usados durante el proceso de evaluación. De esta manera se logra evitar de cierta manera dos fenómenos comunes: el tedio en los estudiantes ‘avanzados’, y la frustración en los ‘rezagados’. Para el diseño de dicho modelo se siguió el enfoque de la Evaluación Adaptativa Computarizada usando la Teoría de Respuesta al Ítem y en particular el modelo logístico de tres parámetros. Para validar la propuesta se llevó a cabo un estudio con una muestra de 59 estudiantes en un ambiente educativo real, específicamente dentro de un curso universitario de estructuras de datos. Dicho estudio demostró, por medio de pruebas de hipótesis, no solo un incremento significativo en la precisión de la medición respecto al nivel de conocimiento de los examinados, sino también una disminución en el tiempo promedio de evaluación.
Referencias
Baker, F. (2001), The Basics of Item Response Theory, Second edition. ERIC Clearinghouse on Assessment and Evaluation, 172.
Barla, M.; Bieliková, M.; Ezzeddinne, A.; Kramár, T.; Simko, M. & Vozár, O. (2010), On the impact of adaptive test question selection for learning eciency. Computers & Education, 55(2), 846-857.
Chang, H-H. (2014), Psychometrics behind Computerized Adaptive Testing. Psychometrika, 79, 1-20.
Chang, H-H. & Ying, Z. (2009), Nonlinear Sequential Designs for Logistic Item Response Theory Models with Applications to Computerized Adaptive Tests. The Annals of Statistics, 37(3), 1466-1488.
Cohen, J. (1988), Statistical Power Analysis for the Behavioral Sciences (second ed.), Lawrence Erlbaum Associates.
Conejo, R.; Guzmán, R.; Millán, E.; Trella, M.; Pérez-de-la-cruz, J. & Ríos, A. (2004), SIETTE: a web-based tool for adaptive testing. International Journal of Articial Intelligence in Education, 14(1), 29-61.
De Bra, P.; Stash, N.; Smits, D.; Romero, C. & Ventura, S. (2007), Authoring and Management Tools for Adaptive Educational Hypermedia Systems: the AHA! case study. Studies in Computational Intelligence, 62, 285-308.
Eggen, T. & Straetmans, G. (2000), Computerized adaptive testing for classifying examinees into three categories. Educational and Psychological Measurement, 60(5), 713-734.
Fasttest (2013), Requirements of Computerized Adaptive Testing. Disponible en: http://www.fasttestweb.com/ftw-docs/CATRequirements.pdf.
Gil, G. & Suárez, J. (2003), Sistemas de presentación de los resultados de las evaluaciones del rendimiento educativo: aplicación al estudio internacional de la lengua inglesa en la educación secundaria. Revista de Investigacion Educativa, 21(1), 135-155.
Guzmán, E.; Conejo, R. & Pérez de la Cruz, J. (2007), Adaptive testing for hierarchical student models. User Modeling and User-Adapted Interaction, 17 (1-2), 119-157.
Hambleton, R. & Jones, R. (1993), Comparison of classical test theory and item response theory and their applications to test development. Educational Measurement: Issues and Practices, 12(3), 38-47.
Hambleton, R.; Swaminathan, H. & Rogers, H. (1991), Fundamentals of Item Response Theory. Newbury Park, California: Sage publications, 184.
Harris, D. (1989), Comparison- of 1-, 2-, and 3-Parameter IRT Models.Educational Measurement Issues and Practice, 8(1), 35-41.
Huang, S. (1996), A Content-Balanced Adaptive Testing Algorithm for Computer-Based Training Systems. Third International Conference in Intelligent Tutoring Systems. Montreal, 306-314.
Jiménez, M.; Jiménez, J. & Ovalle, D. (2008), Un modelo de evaluación del conocimiento para cursos virtuales adaptativos usando la teoría de respuesta al ítem. In: Tendencias en Ingeniería
de Software e Inteligencia Articial, 2, 91-98.
Kozierkiewicz-Hetmanska, A. & Poniatowski, R. (2014), An Item Bank Calibration Method for a Computer Adaptive Test. Lecture Notes in Computer Science, 8397, 375-383.
Kustiyahningsih, Y. & Dwi Cahyani, A. (2013), Computerized Adaptive Test based on Item Response Theory in E-Learning System. International Journal of Computer Applications, 81(6), 6-11.
López, R.; Sanmartín, P. & Méndez, F. (2014), Revisión de las evaluaciones adaptativas computarizadas (CAT), Educación y humanismo, 16(26), 27-40.
Lord, F. (1980), Applications of item response theory to practical testing problems. Hillsdale, New Jersey: Lawrence Erlbaum Associates, 280.
Liu, C.; Meng, P.; Zhang, Z. & Pan, Y. (2010), Research on computerized adaptive testing system based on IRT. Proceedings of the Seventh International Conference on Fuzzy Systems and Knowledge Discovery, 4, 1817-1821.
Matas, A.; Tójar, J.; Jaime, J.; Benítez, F. & Almeda, L. (2004), Diagnóstico de las actitudes hacia el medio ambiente en alumnos de secundaria: una aplicación de la TRI. Revista de Investigación Educativa, 22(1), 233-244.
Ministerio de Educación Nacional de Colombia (2003), Los beneficios de evaluar. Altablero, 19, 9. Dispoible en: http://www.mineducacion.gov.co/1621/propertyvalue-31340.html
Muñiz, J. (2010), Las teorías de los tests: teoría clásica y teoría de respuesta a los ítems. Papeles del Psicólogo, 31(1), 57-66.
Oppermann, R. & Kinshuk, R. (1997), Adaptability and Adaptivity in Learning Systems. Knowledge Transfer, 2, 173-179.
Özyurt, H.; Özyurt; O., Baki, A. & Güven, B. (2012), Integrating computerized adaptive testing into UZWEBMAT: Implementation of individualized assessment module in an e-learning system. Expert Systems with Applications, 39(10), 9837-9847.
Papanikolaou, K. A.; Grigoriadou, M.; Kornikolakis, H. & Magoulas, G. D. (2003), Personalizing the interaction in a web-based educational hypermedia system: the case of Inspire. User Modeling and User-Adapted Interaction, 13(3), 213-267.
Ponsoda, V. (2000), Overview of the Computerized Adaptive Testing. Psicológica, 21(1), 115-120.
Thissen, D. & Mislevy, R. (2000), Testing Algorithms. In Wainer, H. (Ed.) Computerized Adaptive Testing: A Primer, 101-134. Mahwah, New Jersey: Lawrence Erlbaum Associates.
Thompson, N. & Weiss, D. (2011), A Framework for the Development of Computerized Adaptive Tests. Practical Assessment, Research & Evaluation, 16(1), 1-9.
Traub, R. & Wolfe, R. (1981), Latent Trait Theories and the Assessment of Educational Achievement. Review of Research in Education, 9, 377-435.
Trevitt, C.; Brenan, E. & Stocks, C. (2012), Evaluación y aprendizaje: ¿Es ya el momento de replantearse las actividades del alumnado y los roles académicos? Revista de Investigación Educativa, 30(2), 253-267.
Triantallou, E.; Georgiadou, E. & Economides, A. (2008), The design and evaluation of a computerized adaptive test on mobile devices. Computers & Education, 50(4), 1319-1330.
Van der Linden, W. & Glas, C. (2010), Elements of Adaptive Testing. New York: Springer. 31-56.
Wainer, H. & Mislevy, R. (2000), Item response theory, calibration, and estimation. En: Wainer, H. (ed.) Computerized Adaptive Testing: A Primer. Mahwah: Lawrence Erlbaum Associates.
Wauters, K.; Desmet, P. & Van den Noortgate, W. (2010), Adaptive item-based learning environments based on the item response theory: possibilities and challenges. Journal of Computer Assisted Learning, 26(6), 549-562.
Weiss, D. & Kingsbury, G. (1984), Application of computerized adaptive testing to educational problems. Journal of Educational Measurement. 21, 361-375.
Cómo citar
APA
ACM
ACS
ABNT
Chicago
Harvard
IEEE
MLA
Turabian
Vancouver
Descargar cita
Licencia
Los autores o titulares del derecho de autor de cada artículo confieren a la Revista de la Facultad de Ciencias de la Universidad Nacional de Colombia una autorización no exclusiva, limitada y gratuita sobre el artículo que una vez evaluado y aprobado se envía para su posterior publicación ajustándose a las siguientes características:
1. Se remite la versión corregida de acuerdo con las sugerencias de los evaluadores y se aclara que el artículo mencionado se trata de un documento inédito sobre el que se tienen los derechos que se autorizan y se asume total responsabilidad por el contenido de su obra ante la Revista de la Facultad de Ciencias, la Universidad Nacional de Colombia y ante terceros.
2. La autorización conferida a la revista estará vigente a partir de la fecha en que se incluye en el volumen y número respectivo de la Revista de la Facultad de Ciencias en el Sistema Open Journal Systems y en la página principal de la revista (https://revistas.unal.edu.co/index.php/rfc/index), así como en las diferentes bases e índices de datos en que se encuentra indexada la publicación.
3. Los autores autorizan a la Revista de la Facultad de Ciencias de la Universidad Nacional de Colombia para publicar el documento en el formato en que sea requerido (impreso, digital, electrónico o cualquier otro conocido o por conocer) y autorizan a la Revista de la Facultad de Ciencias para incluir la obra en los índices y buscadores que estimen necesarios para promover su difusión.
4. Los autores aceptan que la autorización se hace a título gratuito, por lo tanto renuncian a recibir emolumento alguno por la publicación, distribución, comunicación pública y cualquier otro uso que se haga en los términos de la presente autorización.
5. Todos los contenidos de la Revista de la Facultad de Ciencias, están publicados bajo la Licencia Creative Commons Atribución – No comercial – Sin Derivar 4.0.
MODELO DE CARTA DE PRESENTACIÓN y CESIÓN DE DERECHOS DE AUTOR