¿Cómo se orientan sin GPS estos robots inspirados en insectos?
Modelizar los cerebros de los insectos podría ser la pieza clave para el diseño de robots autómatas que no necesiten señal GPS para orientarse.
¿Imaginas disponer de robots autómatas que puedan decidir en situaciones de rescate, análisis de terrenos e incluso exploración espacial? Inspirado en insectos como las abejas, las libélulas o las hormigas, el proyecto para lograr el aprendizaje en los robots ya está en marcha.
Modelizar los cerebros de los insectos supone la clave en el diseño de robots autómatas que tengan, como los insectos, habilidades de aprendizaje y navegación. Esto es lo que se han propuesto varias universidades británicas al unirse en torno al proyecto Brains on board, que se creó de la mano de la iniciativa europea Human Brain Project.
“Este robot autónomo computacional y energéticamente eficiente representaría un cambio radical en la tecnología robótica”, afirman los investigadores del estudio. “El control autónomo de los robots móviles requiere robustez ante la incertidumbre sensorial y ambiental, y también necesita la flexibilidad para lidiar con entornos y escenarios novedosos”.
Por comparación con los animales, biólogos del comportamiento y neurocientíficos han reparado en el amplio repertorio de comportamientos con los que cuentan las especies de pequeño tamaño, como los insectos.
“La abeja, un animal muy bien estudiado con un cerebro de solo 1 millón de neuronas, exhibe habilidades sofisticadas de aprendizaje y navegación a través de procesos neuronales altamente eficientes”, afirman los investigadores.
Por tanto, para crear este nivel de detalle en los robots, se deben crear modelos tan milimétricamente estudiados que reflejen a la perfección ese amplio universo de detalles que existen en la naturaleza de los insectos en sencillos algoritmos que puedan ser fácilmente interpretados por máquinas.
Un sistema ligero y económico para la visión de insectos
Además, las abejas “pueden optimizar las distancias recorridas en las rutas desde el sitio del nido a múltiples parches de forraje, casi sin poseer un mapa mental”, lo que ayuda al diseño de aparatos que pueden continuar funcionando sin la necesidad de señal GPS.
Sin embargo, en la actualidad, “la incorporación de sistemas visuales similares a insectos está limitada por los sistemas de hardware disponibles. El hardware adecuado es prohibitivamente costoso, difícil de reproducir, no puede simular con precisión las características de la visión del insecto y / o es demasiado pesado para plataformas robóticas pequeñas”.
Para abordar esta brecha, los investigadores proponen un sistema robótico ligero y económico para modelar la visión de insectos que se monta en una aplicación móvil para evaluar el flujo óptico de los datos de la cámara, que muestra un simulado casi perfecto con el mundo de abejas.
BeeBot, al mando de las conductas de vuelo
BeeBot es un helicóptero Quadcopter o quadrotor que puede replicar las capacidades de detección que son vitales para la navegación de vuelo de las abejas, “incluida la detección química y un amplio campo de visión visual”. Además, este centro de mando se controla de forma inalámbrica para procesar los datos de este sensor en redes neuronales.
Por tanto, la confluencia del diseño del procesador, los avances en grabaciones neuronales y de comportamiento, así como los nuevos “algoritmos de aprendizaje bioinspirados” ofrecen una oportunidad única para avanzar hacia una tecnología autómata que marque una gran diferencia en diversas aplicaciones, incluso en situaciones críticas.