Publicado
EVOL-PLAYMAC Integración de una técnica de computación evolutiva al aprendizaje computacional de un juego de tablero entre el humano y la máquina
Palabras clave:
EVOL-PLAYMAC, Aprendizaje computacional, Computación evolutiva, Evaluación de técnicas-Aprendizaje, Teoría de juegos, Inteligencia Artificial, Juego de tablero, Programación evolutiva (es)Descargas
En el campo de la Inteligencia Artificial se han propuesto técnicas en tres tipos básicos de aprendizaje: el aprendizaje supervisado, el aprendizaje no supervisado y el aprendizaje por refuerzo. Las implementaciones que se hacen de estas técnicas están enfocadas en su mayoría a un aprendizaje computacional que poca interacción tiene con el humano; es un aprendizaje que se compara con experiencias anteriores pero no se logra a partir de la propia interacción máquina-humano. Evol-PlayMac surge, entonces, como un sistema que trata en lo posible de solucionar este problema al tratarse de un desarrollo que tiene implementada una técnica de aprendizaje del área de la computación evolutiva, que permite que a través de un juego tradicional de tablero, el parqués, la máquina formule estrategias de juego que cada vez demuestren un mejor desempeño obteniendo un nivel de ganancia mayor y logrando esto a partir de la competencia contra un humano.
Referencias
Barto, A. y Dietterich, T. (2003), ‘Reinforcement learning and its relationship to supervised learning’, En línea:<http://web.engr.oregonstate.edu/ tgd/publications//Barto-Dietterich-03.pdf> C11/05.
Comptom, P. (1995), Simulating expertise, Technical report, School of Computer Science and Engineering. University of New South Wales, Sydney-Australia.
Comptom, P., Preston, P. y Kang, B. (2000), The use of simulated expert in evaluating knowledge acquisition, Technical report, School of Computer Science and Engineering. University of New South Wales, Sydney-Australia.
Deloach, S., Wood, M. y Sparkman, C. (2001), ‘Multiagent system engineering’, International Journal of Software Engineering and Knowledge Engineering 11(3), 231–258.
Ghory, I. (2004), Reinforcement learning in board games, Technical report, University of Bristol.
Kaelbling, L., Littman, M. y Moore, A. (1996), ‘Reinforcement learning: A survey’, En línea:<http://www.cs.cmu.edu/afs/cs/project/jair/pub//volume4/kaelbling96a.pdf> C11/05.
Runarson, T. y Sigurdsson, S. (2003), ‘The learning methodology’, En línea:
<http://cerium.raunvis.hi.is/ tpr/courseware/svm//notes/chapter1.pdf> C11/05.
Rusell, S. y Norvig, P. (1995), Inteligencia Artificial, un enfoque moderno. Trad. por R.B.G., Prentice Hall Hispanoamericana, México.
Schwab, I., Wolfgang, P. y Koychev, I. (2000), Learning to Recommend from Positive Evidence, GMD-FIT.MMK, Sankt Augustin-Germany.
Smith, R. y Taylor, N. (2003), A framework for evolutionary computation in agent-based system, Technical report, The ICSC, University the West of England Bristol, UK.
Sutton, R. y Barto, A. (2002), Reinforcement Learning, The MIT Press, London.
Van Dyke, H., ven Brueckner, J. y Matthews, R. (2000), Distinguishing Enviromental and Agent Dynamics: A Case Study in Abstraction and Alternate Modeling Technologies, ERIM, USA.
Zagal, J. y Ruíz del Solar, J. (2003), Adaptación evolutiva de un sistema visual de reconocimiento de objetos para el campeonato de fútbol robótico robocup, Technical report, Departamento de ingeniería Eléctrica, Universidad de Chile.