jueves, 30 de octubre de 2014

Captar los “pensamientos” de un robot

 Captar los “pensamientos” de un robot

En un recinto oscuro, parecido a un hangar, dentro del edificio 41 del MIT, un pequeño robot semejante al célebre Roomba, está tratando de tomar una decisión.

Frente a él hay un obstáculo, una persona que está caminando por el recinto. Para ir al otro lado de la sala, el robot tiene primero que determinar dónde está la persona, y después elegir una ruta óptima para evitar acercársele demasiado y correr el riesgo de una colisión entre ambos.

A medida que el robot considera sus opciones, sus “pensamientos” son proyectados sobre el suelo: Un punto rosa grande parece seguir al individuo. Esta luz es una representación fiel de la percepción del robot sobre la posición en el espacio de la persona. Unas líneas, cada una representando una posible ruta a seguir por el robot, se extienden a través de la sala en forma de un abanico de colores y patrones serpenteantes, con una línea verde indicando la ruta óptima. Las líneas y los puntos cambian y se ajustan a medida que el peatón y el robot se mueven.

Este nuevo sistema de visualización de “pensamientos espaciales” de robots, desarrollado por el equipo de Ali-akbar Agha-mohammadi y Shayegan Omidshafiei, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos, combina proyectores montados en el techo con tecnología de captura de movimientos y software de animación, para proyectar fuera del robot las intenciones de este en tiempo real.

Normalmente, cuando un robot toma alguna decisión sobre hacia dónde avanzar, es difícil, incluso para los robotistas, saber con certeza qué está pasando por su mente, por qué está eligiendo un camino en particular y no otro. En cambio, si los observadores humanos ven los planes que baraja el robot proyectados sobre el suelo, pueden ver el nexo de unión entre lo que el robot “piensa” y lo que hace, de tal modo que es mucho más fácil entender el origen de sus actos.

[Img #23188]
El nuevo sistema de visualización puede proyectar los “pensamientos” espaciales de un robot. (Foto: Melanie Gonick / MIT)



El nuevo sistema podría ayudar al desarrollo de mejores automóviles que se conduzcan solos, así como modelos más sofisticados de drones de envío de paquetes y de otros vehículos autónomos capaces de planear sus rutas del modo más inteligente posible.

“Como diseñadores, cuando podemos comparar las percepciones del robot con cómo actúa, podemos hallar fallos en nuestro código de manera mucho más rápida”, comenta Agha-mohammadi. Y pone como ejemplo que si están probando un dron en vuelo y ven gracias al sistema de proyección de pensamientos espaciales algo erróneo en lo que el robot está pensando pueden detener la secuencia de software antes de que el dron colisione contra la pared o se rompa por hacer otras cosas indebidas.



0 comentarios:

Publicar un comentario