Por @Alvy — 1 de febrero de 2018

En el pasado Festival de cine de Sundance algunos de los asistentes quedaron gratamente sorprendidos con la presentación de la tecnología detrás de Elastic Time, una película de Mark Boulos cuyo adelanto deja entrever algo en lo que se lleva tiempo trabajando – y de lo que hay una demo.

Lo llaman «motor gráfico de realidad mezclada» (mixed reality), un término que explica que el invento trata de combinar las imágenes de un entorno de realidad virtual con la imagen de la propia persona que está inmersa en esa realidad virtual. Es un concepto un poco meta y como suele suceder, es más fácil de ver en acción en la demo que de explicar con palabras.

La técnica que se utiliza son por una parte unas gafas Oculus para sumergir a la persona en un entorno VR y un pequeño espacio físico en el que se instalan sensores volumétricos rodeando al usuario. Esos sensores y el software adecuado (Imverse LiveMaker) reconstruyen de forma instantánea el aspecto y postura de la persona que lleva las gafas, generando su «equivalente virtual», que entonces es trasladado y generado dentro de la escena VR que está viendo.

Esta técnica permite que la persona con las gafas «mire hacia abajo» y pueda ver sus propios brazos, cuerpo, piernas… e incluso los mandos con los que puede manipular objetos VR – con movimiento y aspecto reales. Además de esto también permite incorporar otros objetos o personas reales a la escena, para lo cual únicamente hace falta que entren en la zona cubierta por los sensores.

Dicen en TechCrunch que las imágenes de esta primera demo son todavía un poco «pixeladas e imprecisas», pero que por lo general el invento da la sensación de que tu propio cuerpo también existe en VR.

Relacionados:

Compartir en Flipboard Publicar / Tuitear Publicar