Publicado

2015-07-01

Diseño y validación de un modelo de evaluación dinámica basado en la teoría de respuesta al ítem

Design and validation of a dynamic assessment model based on the item response theory

DOI:

https://doi.org/10.15446/rev.fac.cienc.v4n2.53174

Palabras clave:

Teoría de respuesta al ítem, evaluación, estimación dinámica, 3PL (es)
Item response theory, assessment, dynamic estimation, 3PL (en)

Descargas

Autores/as

El objetivo de este artículo es describir un modelo de evaluación basado en un proceso iterativo de selección de ítems a partir de una estimación dinámica del conocimiento del estudiante. La idea tras dicho modelo es lograr un equilibrio entre el progreso demostrado por el estudiante y la dificultad de los ítems que son usados durante el proceso de evaluación. De esta manera se logra evitar de cierta manera dos fenómenos comunes: el tedio en los estudiantes ‘avanzados’, y la frustración en los ‘rezagados’. Para el diseño de dicho modelo se siguió el enfoque de la Evaluación Adaptativa Computarizada usando la Teoría de Respuesta al Ítem y en particular el modelo logístico de tres parámetros. Para validar la propuesta se llevó a cabo un estudio con una muestra de 59 estudiantes en un ambiente educativo real, específicamente dentro de un curso universitario de estructuras de datos. Dicho estudio demostró, por medio de pruebas de hipótesis, no solo un incremento significativo en la precisión de la medición respecto al nivel de conocimiento de los examinados, sino también una disminución en el tiempo promedio de evaluación.

The goal of this paper is to describe an assessment model based on an item selection iterative process using a dynamic estimation of the student knowledge. The idea behind such a model is to achieve equilibrium between the progress demonstrated by the student and the items that are used during the assessment process. In this way two common phenomena are avoided: the boredom of 'advanced' students, and the frustration of the 'straggler' ones. For the design of such a model the Computerized Adaptive Testing approach was followed using the Item Response Theory and in particular the logistic model with three parameters. To validate the proposal a study was performed with 59 students in a real educational environment, speci cally within a college course in data structures. Such a study demonstrated, through hypothesis tests, not only a signi cant raise in the measuring accuracy with regard to the knowledge level of the examinees, but also a dropout in the mean assessment time.

Referencias

Baker, F. (2001), The Basics of Item Response Theory, Second edition. ERIC Clearinghouse on Assessment and Evaluation, 172.

Barla, M.; Bieliková, M.; Ezzeddinne, A.; Kramár, T.; Simko, M. & Vozár, O. (2010), On the impact of adaptive test question selection for learning eciency. Computers & Education, 55(2), 846-857.

Chang, H-H. (2014), Psychometrics behind Computerized Adaptive Testing. Psychometrika, 79, 1-20.

Chang, H-H. & Ying, Z. (2009), Nonlinear Sequential Designs for Logistic Item Response Theory Models with Applications to Computerized Adaptive Tests. The Annals of Statistics, 37(3), 1466-1488.

Cohen, J. (1988), Statistical Power Analysis for the Behavioral Sciences (second ed.), Lawrence Erlbaum Associates.

Conejo, R.; Guzmán, R.; Millán, E.; Trella, M.; Pérez-de-la-cruz, J. & Ríos, A. (2004), SIETTE: a web-based tool for adaptive testing. International Journal of Articial Intelligence in Education, 14(1), 29-61.

De Bra, P.; Stash, N.; Smits, D.; Romero, C. & Ventura, S. (2007), Authoring and Management Tools for Adaptive Educational Hypermedia Systems: the AHA! case study. Studies in Computational Intelligence, 62, 285-308.

Eggen, T. & Straetmans, G. (2000), Computerized adaptive testing for classifying examinees into three categories. Educational and Psychological Measurement, 60(5), 713-734.

Fasttest (2013), Requirements of Computerized Adaptive Testing. Disponible en: http://www.fasttestweb.com/ftw-docs/CATRequirements.pdf.

Gil, G. & Suárez, J. (2003), Sistemas de presentación de los resultados de las evaluaciones del rendimiento educativo: aplicación al estudio internacional de la lengua inglesa en la educación secundaria. Revista de Investigacion Educativa, 21(1), 135-155.

Guzmán, E.; Conejo, R. & Pérez de la Cruz, J. (2007), Adaptive testing for hierarchical student models. User Modeling and User-Adapted Interaction, 17 (1-2), 119-157.

Hambleton, R. & Jones, R. (1993), Comparison of classical test theory and item response theory and their applications to test development. Educational Measurement: Issues and Practices, 12(3), 38-47.

Hambleton, R.; Swaminathan, H. & Rogers, H. (1991), Fundamentals of Item Response Theory. Newbury Park, California: Sage publications, 184.

Harris, D. (1989), Comparison- of 1-, 2-, and 3-Parameter IRT Models.Educational Measurement Issues and Practice, 8(1), 35-41.

Huang, S. (1996), A Content-Balanced Adaptive Testing Algorithm for Computer-Based Training Systems. Third International Conference in Intelligent Tutoring Systems. Montreal, 306-314.

Jiménez, M.; Jiménez, J. & Ovalle, D. (2008), Un modelo de evaluación del conocimiento para cursos virtuales adaptativos usando la teoría de respuesta al ítem. In: Tendencias en Ingeniería

de Software e Inteligencia Articial, 2, 91-98.

Kozierkiewicz-Hetmanska, A. & Poniatowski, R. (2014), An Item Bank Calibration Method for a Computer Adaptive Test. Lecture Notes in Computer Science, 8397, 375-383.

Kustiyahningsih, Y. & Dwi Cahyani, A. (2013), Computerized Adaptive Test based on Item Response Theory in E-Learning System. International Journal of Computer Applications, 81(6), 6-11.

López, R.; Sanmartín, P. & Méndez, F. (2014), Revisión de las evaluaciones adaptativas computarizadas (CAT), Educación y humanismo, 16(26), 27-40.

Lord, F. (1980), Applications of item response theory to practical testing problems. Hillsdale, New Jersey: Lawrence Erlbaum Associates, 280.

Liu, C.; Meng, P.; Zhang, Z. & Pan, Y. (2010), Research on computerized adaptive testing system based on IRT. Proceedings of the Seventh International Conference on Fuzzy Systems and Knowledge Discovery, 4, 1817-1821.

Matas, A.; Tójar, J.; Jaime, J.; Benítez, F. & Almeda, L. (2004), Diagnóstico de las actitudes hacia el medio ambiente en alumnos de secundaria: una aplicación de la TRI. Revista de Investigación Educativa, 22(1), 233-244.

Ministerio de Educación Nacional de Colombia (2003), Los beneficios de evaluar. Altablero, 19, 9. Dispoible en: http://www.mineducacion.gov.co/1621/propertyvalue-31340.html

Muñiz, J. (2010), Las teorías de los tests: teoría clásica y teoría de respuesta a los ítems. Papeles del Psicólogo, 31(1), 57-66.

Oppermann, R. & Kinshuk, R. (1997), Adaptability and Adaptivity in Learning Systems. Knowledge Transfer, 2, 173-179.

Özyurt, H.; Özyurt; O., Baki, A. & Güven, B. (2012), Integrating computerized adaptive testing into UZWEBMAT: Implementation of individualized assessment module in an e-learning system. Expert Systems with Applications, 39(10), 9837-9847.

Papanikolaou, K. A.; Grigoriadou, M.; Kornikolakis, H. & Magoulas, G. D. (2003), Personalizing the interaction in a web-based educational hypermedia system: the case of Inspire. User Modeling and User-Adapted Interaction, 13(3), 213-267.

Ponsoda, V. (2000), Overview of the Computerized Adaptive Testing. Psicológica, 21(1), 115-120.

Thissen, D. & Mislevy, R. (2000), Testing Algorithms. In Wainer, H. (Ed.) Computerized Adaptive Testing: A Primer, 101-134. Mahwah, New Jersey: Lawrence Erlbaum Associates.

Thompson, N. & Weiss, D. (2011), A Framework for the Development of Computerized Adaptive Tests. Practical Assessment, Research & Evaluation, 16(1), 1-9.

Traub, R. & Wolfe, R. (1981), Latent Trait Theories and the Assessment of Educational Achievement. Review of Research in Education, 9, 377-435.

Trevitt, C.; Brenan, E. & Stocks, C. (2012), Evaluación y aprendizaje: ¿Es ya el momento de replantearse las actividades del alumnado y los roles académicos? Revista de Investigación Educativa, 30(2), 253-267.

Triantallou, E.; Georgiadou, E. & Economides, A. (2008), The design and evaluation of a computerized adaptive test on mobile devices. Computers & Education, 50(4), 1319-1330.

Van der Linden, W. & Glas, C. (2010), Elements of Adaptive Testing. New York: Springer. 31-56.

Wainer, H. & Mislevy, R. (2000), Item response theory, calibration, and estimation. En: Wainer, H. (ed.) Computerized Adaptive Testing: A Primer. Mahwah: Lawrence Erlbaum Associates.

Wauters, K.; Desmet, P. & Van den Noortgate, W. (2010), Adaptive item-based learning environments based on the item response theory: possibilities and challenges. Journal of Computer Assisted Learning, 26(6), 549-562.

Weiss, D. & Kingsbury, G. (1984), Application of computerized adaptive testing to educational problems. Journal of Educational Measurement. 21, 361-375.

Cómo citar

APA

Moreno Cadavid, J. y Montoya Gómez, L. F. (2015). Diseño y validación de un modelo de evaluación dinámica basado en la teoría de respuesta al ítem. Revista de la Facultad de Ciencias, 4(2), 58–73. https://doi.org/10.15446/rev.fac.cienc.v4n2.53174

ACM

[1]
Moreno Cadavid, J. y Montoya Gómez, L.F. 2015. Diseño y validación de un modelo de evaluación dinámica basado en la teoría de respuesta al ítem. Revista de la Facultad de Ciencias. 4, 2 (jul. 2015), 58–73. DOI:https://doi.org/10.15446/rev.fac.cienc.v4n2.53174.

ACS

(1)
Moreno Cadavid, J.; Montoya Gómez, L. F. Diseño y validación de un modelo de evaluación dinámica basado en la teoría de respuesta al ítem. Rev. Fac. Cienc. 2015, 4, 58-73.

ABNT

MORENO CADAVID, J.; MONTOYA GÓMEZ, L. F. Diseño y validación de un modelo de evaluación dinámica basado en la teoría de respuesta al ítem. Revista de la Facultad de Ciencias, [S. l.], v. 4, n. 2, p. 58–73, 2015. DOI: 10.15446/rev.fac.cienc.v4n2.53174. Disponível em: https://revistas.unal.edu.co/index.php/rfc/article/view/53174. Acesso em: 25 abr. 2024.

Chicago

Moreno Cadavid, Julián, y Luis Fernando Montoya Gómez. 2015. «Diseño y validación de un modelo de evaluación dinámica basado en la teoría de respuesta al ítem». Revista De La Facultad De Ciencias 4 (2):58-73. https://doi.org/10.15446/rev.fac.cienc.v4n2.53174.

Harvard

Moreno Cadavid, J. y Montoya Gómez, L. F. (2015) «Diseño y validación de un modelo de evaluación dinámica basado en la teoría de respuesta al ítem», Revista de la Facultad de Ciencias, 4(2), pp. 58–73. doi: 10.15446/rev.fac.cienc.v4n2.53174.

IEEE

[1]
J. Moreno Cadavid y L. F. Montoya Gómez, «Diseño y validación de un modelo de evaluación dinámica basado en la teoría de respuesta al ítem», Rev. Fac. Cienc., vol. 4, n.º 2, pp. 58–73, jul. 2015.

MLA

Moreno Cadavid, J., y L. F. Montoya Gómez. «Diseño y validación de un modelo de evaluación dinámica basado en la teoría de respuesta al ítem». Revista de la Facultad de Ciencias, vol. 4, n.º 2, julio de 2015, pp. 58-73, doi:10.15446/rev.fac.cienc.v4n2.53174.

Turabian

Moreno Cadavid, Julián, y Luis Fernando Montoya Gómez. «Diseño y validación de un modelo de evaluación dinámica basado en la teoría de respuesta al ítem». Revista de la Facultad de Ciencias 4, no. 2 (julio 1, 2015): 58–73. Accedido abril 25, 2024. https://revistas.unal.edu.co/index.php/rfc/article/view/53174.

Vancouver

1.
Moreno Cadavid J, Montoya Gómez LF. Diseño y validación de un modelo de evaluación dinámica basado en la teoría de respuesta al ítem. Rev. Fac. Cienc. [Internet]. 1 de julio de 2015 [citado 25 de abril de 2024];4(2):58-73. Disponible en: https://revistas.unal.edu.co/index.php/rfc/article/view/53174

Descargar cita

CrossRef Cited-by

CrossRef citations0

Dimensions

PlumX

Visitas a la página del resumen del artículo

596

Descargas

Los datos de descargas todavía no están disponibles.