Aprendizaje de selección de acciones en un mundo simple pero impredecible
DOI:
https://doi.org/10.15446/ing.investig.n49.21404Palabras clave:
Aprendizaje por refuerzo, Aprendizaje Q, Agentes autónomos, Animats (es)Reinforcement learning, Q learning, Autonomous agents, Animats (en)
Descargas
Uno de los principales problemas estudiados en la simulación de agentes artificiales autónomos es el de la selección de acciones: un mecanismo que le permita al sistema escoger la acción más apropiada para la situación en que se encuentre, de tal forma que maximice su medida de éxito. El aprendizaje por refuerzo representa un enfoque atractivo para atacar este problema, ya que se basa en la búsqueda de señales de premio y la evasión de señales de castigo mediante un proceso de ensayo y error. En este artículo presentamos al PAISA I, una criatura artificial que aprende a comportarse (seleccionar acciones) utilizando una técnica de aprendizaje por refuerzo (aprendizaje Q) para optimizar la cantidad de comida que puede encontrar en un mundo impredecible, aunque con un espacio estado-acción pequeño.
One of the main problems studied in simulation of artificial autonomous agents is the action-selection: a mechanism that allows the system to choice the more suitable action for the specific situation where it is located, in such a way that maximizes his success measure. The reinforcement learning represents an attractive approach to attack this problem, because it is based in the searching of awards signals and the refusing of punishments by a trial and error process. In this paper, we present the PAISA I, an artificial creature that learns to behave (that is, action-selection) using a reinforcement learning technique known as Q-learning, to optimize the amount of food that he can find in an unpredictable world, although in a small state-action space.
Referencias
[Baird, 1994] Baird, L. C. (1994). Reinforcement Learning in Continuous Time: Advantage Updating. Proceedings of the International Conference on Neural Networks. DOI: https://doi.org/10.1109/ICNN.1994.374604
[Lin, 1992] Lin, L. (1992). Self-improving reactive agents based on reinforcement learning, planning and teaching. En: Machine Learning, 8. DOI: https://doi.org/10.1007/978-1-4615-3618-5_5
[Moriarty et al., 1996] Moriarty, D. E.; Miikkulainen, R. (1996). Efficient reinforcement learning through symbiotic evolution, En: Machine Learning, 22. DOI: https://doi.org/10.1007/BF00114722
[Munos et al., 1994] Munos, R.; Patinel, J. (1994). Reinforcement learning with dynamic covering of state-action: partitioning Q-learning. En: Cliff, D.; Husbands, P; Meyer, J. A.; Wilson, S. W. (Eds), From Animals to Animats 3: Proceedings of the Third International Conference on Simulation of Adaptive Behavior. The MIT Press/Bradford Books.
[Peng, 1993] Peng, J. (1993). Efficient Dynamic Programming-based Learning for Control. Tesis doctoral. College of Computer Science of Northeastern University.
[Peng et al., 1996] Peng, J.; Williams, R. J. (1996). Incremental Multi-step Q-Learning. En: Machine Learning, 22. DOI: https://doi.org/10.1007/BF00114731
[Rojas, 1998] Rojas, S. A. (1998). Disertación teórica sobre simulaciones inspiradas biológicamente para el estudio del comportamiento adaptativo. Monografía de grado. Facultad de Ingeniería de la Universidad Nacional de Colombia.
[Sutton et al., 1998] Sutton, R. S.; Barto, A. G. (1998). Reinforcement Learning: An Introduction. The MIT Press. DOI: https://doi.org/10.1109/TNN.1998.712192
[Watkins et al., 1992] Watkins, C. J.; Dayan, P (1992). Q-Learning. En: Machine Learning, 8. DOI: https://doi.org/10.1023/A:1022676722315
Cómo citar
APA
ACM
ACS
ABNT
Chicago
Harvard
IEEE
MLA
Turabian
Vancouver
Descargar cita
CrossRef Cited-by
Dimensions
PlumX
Visitas a la página del resumen del artículo
Descargas
Licencia
Derechos de autor 2002 Sergio A. Rojas, José J. Martínez

Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.
Los autores o titulares del derecho de autor de cada artículo confieren a la revista Ingeniería e Investigación de la Universidad Nacional de Colombia una autorización no exclusiva, limitada y gratuita sobre el artículo que una vez evaluado y aprobado se envía para su posterior publicación ajustándose a las siguientes características:
1. Se remite la versión corregida de acuerdo con las sugerencias de los evaluadores y se aclara que el artículo mencionado se trata de un documento inédito sobre el que se tienen los derechos que se autorizan y se asume total responsabilidad por el contenido de su obra ante la revista Ingeniería e Investigación, la Universidad Nacional de Colombia y ante terceros.
2. La autorización conferida a la revista estará vigente a partir de la fecha en que se incluye en el volumen y número respectivo de la revista Ingeniería e Investigación en el Sistema Open Journal Systems y en la página principal de la revista (https://revistas.unal.edu.co/index.php/ingeinv), así como en las diferentes bases e índices de datos en que se encuentra indexada la publicación.
3. Los autores autorizan a la revista Ingeniería e Investigación de la Universidad Nacional de Colombia para publicar el documento en el formato en que sea requerido (impreso, digital, electrónico o cualquier otro conocido o por conocer) y autorizan a la revista Ingeniería e Investigación para incluir la obra en los índices y buscadores que estimen necesarios para promover su difusión.
4. Los autores aceptan que la autorización se hace a título gratuito, por lo tanto renuncian a recibir emolumento alguno por la publicación, distribución, comunicación pública y cualquier otro uso que se haga en los términos de la presente autorización.