Es un hecho que los smartphones se han convertido en parte de la vida diaria y en pieza importante tanto para las actividades personales, de entretenimiento, de estudio y trabajo; debido a esto, los teléfonos móviles integran pantallas cada vez más grandes, lo cual es ideal para tener una mejor visualización de los contenidos, pero por otro lado dificulta su manejo con una sola mano.
Con esta problemática en mente, un grupo de investigadores del Future Interfaces Group, del Human-Computer Interaction Institute (HCII) de la Universidad Carnegie Mellon, trabajan en el desarrollo de una herramienta llamada EyeMU, que permite a los usuarios ejecutar operaciones en un teléfono inteligente, al combinar el control a través de la mirada con gestos manuales simples, como mover el smartphone de un lado a otro o hacia atrás y hacia adelante.
Aunque esta solución podría ser utilizada como herramienta de accesibilidad para quienes, por alguna enfermedad, discapacidad o accidente, no pueden mover sus brazos y/o manos, de modo que puedan utilizar smartphones, tablets o computadoras, la realidad es que el proyecto surgió con el objetivo de facilitar el control de los teléfonos inteligentes con pantallas cada ve más grandes, cuando no se tienen ambas manos disponibles.
Así, el equipo de investigadores decidió trabajar en el seguimiento ocular, que si bien no es un experimento nuevo, el video práctico publicado el otoño pasado, que puedes ver bajo estas líneas, muestra que sí es uno de los más exitosos que se han realizado hasta el momento.
La aplicación detecta el movimiento ocular y los puntos de la pantalla donde se fija la mirada del usuario, lo que hace posible usar el seguimiento de la mirada como una forma de controlar lo que sucede en la pantalla, así como seleccionar elementos en ella y ejecutar diversas acciones, sin necesidad de recurrir al uso de las manos.
Con ayuda de EyeMU, el usuario puede seleccionar y abrir notificaciones, volver a aplicaciones anteriores e incluso seleccionar fotos específicas, acercar y alejar, todo a través del movimiento de sus ojos.
En algunos casos, el movimiento ocular se combinan con gestos sencillos, en los que sólo hay que mover el teléfono con una sola mano, agitándolo de izquierda a derecha o colocándolo más cerca o más lejos de la cara.
Esta combinación de seguimiento ocular con detección de movimiento es lo que hace la diferencia entre esta nueva aplicación y los intentos más antiguos que se habían realizado previamente; y es que al usar sólo la mirada, es complicado que el sistema sepa específicamente qué es lo que el usuario quiere hacer con el elemento al que ha dirigido la mirada.
"Los ojos tienen lo que llamarías el problema táctil de Midas", dijo Chris Harrison , profesor asociado en HCII y director del Future Interfaces Group. "No puedes tener una situación en la que algo suceda en el teléfono donde sea que mires... Se abrirían demasiadas aplicaciones".
Ahí es donde entran los sensores de movimiento, que actúan como mensajes de confirmación cada vez que se necesita seleccionar, mover, eliminar o ejecutar alguna otra acción.
El equipo hizo que la herramienta fuera más productiva al combinar el predictor de mirada con los sensores de movimiento integrados en el teléfono inteligente para habilitar los comandos. Por ejemplo, un usuario podría mirar una notificación el tiempo suficiente para asegurarla como objetivo y mover el teléfono hacia la izquierda para descartarla o hacia la derecha para responder, o bien, acercar el teléfono para ampliar una imagen o alejarlo para desactivar el control de la mirada, todo con una sola mano.
Aunque esta aplicación sólo es, por ahora, un experimento, es también una demostración de lo que podría suceder en el futuro en el terreno de las diversas opciones para controlar los gadgets y de la inclusión de alternativas de accesibilidad para todo tipo de necesidades. Será interesante ver cómo los grandes fabricantes de smartphones empiezan a integrar en sus modelos futuros este tipo de tecnologías.