El equipo responsable de esa iniciativa comenzó a trabajar a finales de noviembre y en pocos días consiguieron combinar un Oculus Rift con Kinect 2 para poder manipular un brazo robótico. Según sus comentarios, la soulución es “la más inmersiva“ que el JPL ha construido hasta la fecha.
Este laboratorio ya había trabajado con la primera versión de Kinect —de hecho, llegaron a publicar un pequeño juego en el que controlábamos la sonda Curiosity en Marte— pero con la nueva edición de este periférico los desarrolladores han ganado en precisión y control: “con todos estos nuevos puntos de seguimiento y libertad de ángulos de rotación hemos sido capaces de manipular mucho mejor el brazo robótico“.
El resultado, dicen, es el de tener la impresión de que el brazo robótico sea una extensión de nuestro cuerpo. Por supuesto, la latencia es un problema grave —las órdenes y sus respuestas tardan en llegar y recibirse, ya que la distancia es enorme— pero han ideado una solución. Como se ve en el vídeo, se muestra tanto una imagen en sombra con la posición de nuestro brazo, y otra en la que se muestra el robot, para adecuarnos a esa latencia. Los propios ingenieros del JPL revelan que “lo controlas con adelanto, pero no hay sensación de retrasos”.
Source
No hay comentarios:
Publicar un comentario