Por Nacho Palou — 22 de junio de 2015

El control de dispositivos por gestos —con movimientos de los dedos o de las manos, por ejemplo— no es algo nuevo. En los últimos años se han visto y producido diferentes aproximaciones, aunque por ahora ninguno ha sido totalmente satisfactorio ni ampliamente adoptado.

Algunos ejemplos se basan en el uso de los sensores de proximidad o de la cámara frontal del móvil o en el uso de superficies táctiles que detectan el dedo aunque éste no llegue a tocar la pantalla; el control Kinect de la Xbox, que utiliza cámaras, es un ejemplo más que conocido —y probablemente el más utilizado; en cambio The Leap llamó mucho la atención pero no ha terminado de arrancar. También hace no mucho el uso de ultrasonidos auguraba incorporar el control por gestos en móviles que se comercializarían de este año (cri, cri, cri,...)

El Project Soli de Google es otra aproximación a la idea de controlar los dispositivos —móviles o no— mediante gestos, sin necesidad de tocarlos o de que la interfaz —sea física o en pantalla— disponga de elementos para su manejo y control.

Google-Project-Soli-Radar

En el de Google la tecnología de detección se basa en el uso de la tecnología de radar, lo que «permite detectar y hacer el seguimiento preciso de movimientos de un milímetro» y a una velocidad de hasta 10 000 fotogramas por segundo, lo que incrementa enormemente las posibilidades y el número de gestos que puede detectar — aunque igual con tanta precisión hay tener buen pulso.

En el vídeo se explica el funcionamiento del sistema —que puede empaquetarse todo en un único circuito integrado de pequeñas dimensiones— y algunos ejemplos de uso y aplicaciones y pinta bien.

Compartir en Flipboard Publicar / Tuitear Publicar