Google le está enseñando parkour a su inteligencia artificial
Resulta que la gente de DeepMind, la inteligencia artificial de Google que vence a campeones mundiales de Go, ahora está aprendiendo parkour y otros movimientos de ninja, más o menos, según revelan los datos de su más reciente publicación Emergence of Locomotion Behaviours in Rich Environments.
La investigación explora cómo una dinámica de refuerzo del aprendizaje puede utilizarse en esta plataforma de IA para enseñar a una computadora (y finalmente a un robot dentro de algunos años) a desplazarse por ambientes desconocidos y complejos.
Agents having fun in Parkour! Cool paper from colleagues at DeepMind https://t.co/X0PwKXrQ2M pic.twitter.com/yMT6XCNv45
— Oriol Vinyals (@OriolVinyalsML) 10 de julio de 2017
Sin embargo por ahora todas estas pruebas sólo se han realizado en entornos virtuales, pero la intención es que estas bases algún día ayuden a programar robots que puedan ejecutar estos movimientos.
Las animaciones logradas van entre lo burdo y rudimentario, pero el punto más perturbador es que cada movimiento observado en ellas fue aprendido de manera autónoma por DeepMind, y la meta es que ejecute la rutina a la perfección.
Relacionados