Por @Alvy — 11 de mayo de 2017

Este planteamiento relativo al aprendizaje automático aplicado a los drones caseros es cuando menos interesante y diferente. En vez de diseñar complejos algoritmos parara evitar colisionar con los objetos que pueda encontrarse en su camino, en la Instituto de Robótica de la Carnegie Mellon han elegido el camino inverso: obligar a chocharse miles de veces a un dron para que aprenda de sus errores.

El resultado de este duro entrenamiento a lo Kárate Kid puede verse en el vídeo: utilizaron un AR Drone 2.0 en diversos escenarios, todos ellos cerrados. La cámara permitía grabar lo sucedido (a 30 fps) y además utilizarla como sistema de visión artificial. Los sensores de colisión y acelerómetros permitían analizar los resultados de cada intento.

Al principio hicieron cochar al dron de forma aleatoria para recopilar los primeros datos. En una red neuronal se planteaban alternativas tan simples para mejorar como avanzar/retroceder y hacer giros a uno u otro lado. Según lo que sucediera al elegir esas opciones (crash o no-crash) se iban ajustando los valores, premiando los que dejaban al dron sano y salvo, penalizando los otros. Como hemos visto tantas veces en simuladores pero con «objetos reales».

El resultado tras 11.600 interacciones y 40 horas de vuelo es un dron que aprende a volar y esquivar obstáculos. No es tan bueno como un humano en escenarios sencillos pero es entre 2 y 10 veces mejor y más rápido cuando la misión es más complicada – pasillos estrechos o llenos de sillas u objetos móviles. ¿Lo mejor de todo? Que el proceso de aprendizaje es casi 100% autónomo: nadie tiene que «enseñarle» nada, como en otros sistemas similares. Simplemente cambiarle las baterías de vez en cuando.

Compartir en Flipboard Publicar / Tuitear Publicar