¿Es el momento del control por gestos?

Levanta un brazo al aire y agítalo para cambiar de canal. Deja tu smartphone encima de la mesa y saluda para contestar una llamada. Alza ambas manos abiertas y ciérralas mientras las acercas, para minimizar el tamaño de la pantalla y ver como aparece un menú. Llamadme clásico, pero yo no lo veo.

Llevo pensando en escribir sobre esto desde que vi la presentación de la Xbox One, y toda la integración gestual con Kinect que trae su interfaz de usuario; pero hasta que no he leído que Apple podría estar interesada en adquirir la compañía responsable de la versión original de Kinect, PrimeSense, no me he puesto frente al teclado.

No me malinterpretéis, soy un gran fan de dispositivos como Leap Motion y el propio Kinect, así como de todas las ideas novedosas y posibilidades que nos ofrecen. Sin embargo, creo que el control por gestos que estamos viendo hoy en día no se está aplicando de manera correcta.

El problema que tienen interfaces como la que plantea Microsoft es que existe una disonancia dimensional. Os pondré un ejemplo: cuando utilizamos un ratón con nuestro ordenador, estamos transformando gestos que se realizan sobre un plano en movimientos del cursor sobre la pantalla, en una interfaz plana: es decir, nuestro cerebro ve que hay una relación 2D → 2D. Sin embargo, las aplicaciones de las que hablaba al principio de este post transforman gestos realizados en el espacio, que es tridimensional, en acciones aplicadas sobre el mismo tipo de interfaces sobre la pantalla, interfaces planas. O lo que es lo mismo, fuerzan una relación 3D → 2D que es completamente antinatural.

Para que las aplicaciones con control gestual lleguen a tener una verdadera interfaz natural de usuario es necesario que exista una relación 3D → 3D que sea suficientemente clara. Hemos visto este tipo de interfaces en Minority Report, Avatar o en Iron Man y todas cumplían este requisito. Nosotros todavía no tenemos hologramas que representen un espacio tridimensional delante de nuestros ojos, pero ya hay iniciativas que están haciendo un uso mucho mejor del control por gestos. Echadle un ojo a Greenhouse, un toolkit con multitud de herramientas que facilitan a los desarrolladores la tarea de interpretar gestos.

El no respetar esta relación 3D → 3D hace que tengamos la sensación de que el control gestual no aporta nada nuevo (salvo en casos específicos, como los que soluciona la startup española Tedcas en entornos médicos). Desde luego, forzar el uso del control por gestos puede acabar siendo contraproducente para esta tecnología.

Pero yo soy optimista. Microsoft ha dado el primer paso y no tardará en encontrar situaciones en las que los gestos tengan más sentido. Y si se consuma la compra de PrimeSense por parte de Apple, pronto veremos cómo la tecnología detrás de Kinect o Leap Motion estará integrada en dispositivos de consumo de manera masiva, y será el impulso definitivo para los desarrolladores de interfaces naturales de usuario.

¿Qué opináis vosotros? ¿Usáis habitualmente el control por gestos? ¿Lo habéis probado?

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Puedes usar las siguientes etiquetas y atributos HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>