El control de dispositivos por gestos —con movimientos de los dedos o de las manos, por ejemplo— no es algo nuevo. En los últimos años se han visto y producido diferentes aproximaciones, aunque por ahora ninguno ha sido totalmente satisfactorio ni ampliamente adoptado.
Algunos ejemplos se basan en el uso de los sensores de proximidad o de la cámara frontal del móvil o en el uso de superficies táctiles que detectan el dedo aunque éste no llegue a tocar la pantalla; el control Kinect de la Xbox, que utiliza cámaras, es un ejemplo más que conocido —y probablemente el más utilizado; en cambio The Leap llamó mucho la atención pero no ha terminado de arrancar. También hace no mucho el uso de ultrasonidos auguraba incorporar el control por gestos en móviles que se comercializarían de este año (cri, cri, cri,...)
El Project Soli de Google es otra aproximación a la idea de controlar los dispositivos —móviles o no— mediante gestos, sin necesidad de tocarlos o de que la interfaz —sea física o en pantalla— disponga de elementos para su manejo y control.
En el de Google la tecnología de detección se basa en el uso de la tecnología de radar, lo que «permite detectar y hacer el seguimiento preciso de movimientos de un milímetro» y a una velocidad de hasta 10 000 fotogramas por segundo, lo que incrementa enormemente las posibilidades y el número de gestos que puede detectar — aunque igual con tanta precisión hay tener buen pulso.
En el vídeo se explica el funcionamiento del sistema —que puede empaquetarse todo en un único circuito integrado de pequeñas dimensiones— y algunos ejemplos de uso y aplicaciones y pinta bien.
- La pulsera Cicret convierte tu brazo en la pantalla táctil del móvil
- FingerSense hace que la pantalla táctil distinga cuando se toca con el dedo, las uñas, los nudillos u otros objetos