Captar los “pensamientos” de un robot
En un recinto oscuro, parecido a un hangar, dentro del edificio 41
del MIT, un pequeño robot semejante al célebre Roomba, está tratando de
tomar una decisión.
Frente a él hay un obstáculo, una persona que está caminando por el
recinto. Para ir al otro lado de la sala, el robot tiene primero que
determinar dónde está la persona, y después elegir una ruta óptima para
evitar acercársele demasiado y correr el riesgo de una colisión entre
ambos.
A medida que el robot considera sus opciones, sus “pensamientos” son
proyectados sobre el suelo: Un punto rosa grande parece seguir al
individuo. Esta luz es una representación fiel de la percepción del
robot sobre la posición en el espacio de la persona. Unas líneas, cada
una representando una posible ruta a seguir por el robot, se extienden a
través de la sala en forma de un abanico de colores y patrones
serpenteantes, con una línea verde indicando la ruta óptima. Las líneas y
los puntos cambian y se ajustan a medida que el peatón y el robot se
mueven.
Este nuevo sistema de visualización de “pensamientos espaciales” de
robots, desarrollado por el equipo de Ali-akbar Agha-mohammadi y
Shayegan Omidshafiei, del Instituto Tecnológico de Massachusetts (MIT)
en Cambridge, Estados Unidos, combina proyectores montados en el techo
con tecnología de captura de movimientos y software de animación, para
proyectar fuera del robot las intenciones de este en tiempo real.
Normalmente, cuando un robot toma alguna decisión sobre hacia dónde
avanzar, es difícil, incluso para los robotistas, saber con certeza qué
está pasando por su mente, por qué está eligiendo un camino en
particular y no otro. En cambio, si los observadores humanos ven los
planes que baraja el robot proyectados sobre el suelo, pueden ver el
nexo de unión entre lo que el robot “piensa” y lo que hace, de tal modo
que es mucho más fácil entender el origen de sus actos.
El nuevo sistema de visualización puede proyectar los “pensamientos” espaciales de un robot. (Foto: Melanie Gonick / MIT)
El nuevo sistema podría ayudar al desarrollo de mejores automóviles
que se conduzcan solos, así como modelos más sofisticados de drones de
envío de paquetes y de otros vehículos autónomos capaces de planear sus
rutas del modo más inteligente posible.
“Como diseñadores, cuando podemos comparar las percepciones del robot
con cómo actúa, podemos hallar fallos en nuestro código de manera mucho
más rápida”, comenta Agha-mohammadi. Y pone como ejemplo que si están
probando un dron en vuelo y ven gracias al sistema de proyección de
pensamientos espaciales algo erróneo en lo que el robot está pensando
pueden detener la secuencia de software antes de que el dron colisione
contra la pared o se rompa por hacer otras cosas indebidas.
0 comentarios:
Publicar un comentario