Controlar los smartphones con los ojos y gestos faciales es el próximo avance de accesibilidad
Las cámaras frontales han estado disponibles en los smartphones desde hace más de una década. Todos conocemos su uso principal (selfies, videollamadas o transmisiones en vivo), pero con la tecnología actual se puede mejorar la experiencia e incluso la vida de muchas personas.
El jueves 16 de mayo de 2024 se celebró el 13º Día Mundial de Concienciación sobre la Accesibilidad, una fecha que busca lograr que todos hablen, piensen y aprendan sobre inclusión digital y las personas con diferentes discapacidades.
Grandes empresas tecnológicas realizaron anuncios relacionados con la accesibilidad. OpenAI reveló detalles de su nuevo modelo de inteligencia artificial llamado GPT-4o, que incorpora mejoras en varios aspectos, pero uno de los más notables tiene que ver con la capacidad de visión. La compañía publicó varias demostraciones sobre cómo la IA puede ayudar a las personas ciegas o con problemas visuales a comprender lo que hay en el entorno. Para ello, la IA usa la cámara del dispositivo y describe lo que ve (sí, ChatGPT también mejora sus capacidades para hablar).
Esto sin duda es demasiado valioso para millones de personas con algún tipo de discapacidad visual, pero no es el único gran avance de accesibilidad a través de la inteligencia artificial que están realizando las empresas tecnológicas este año.
Apple y Google integrarán controles con los ojos y gestos
La próxima Conferencia Global de Desarrolladores de Apple (WWDC 2024) todavía no empieza y desde ya Apple reveló una gran novedad que llegará a los usuarios de iPhone y iPad este año.
La compañía reveló que en la próxima gran actualización anual de sus sistemas operativos móviles (iOS 18 y iPadOS 18) se integrará una función llamada Eye Tracking o seguimiento ocular, que utiliza inteligencia artificial (IA) para ayudar a los usuarios a controlar su iPhone o iPad usando solo sus ojos.
Esta función ha sido diseñada especialmente para personas con discapacidades físicas y configurarla será bastante sencillo. Tampoco necesitará hardware o accesorios adicionales ya que será una función propia del sistema operativo.
Por su parte, Google apuesta por mejorar la experiencia de las personas amantes a los videojuegos que tengan limitaciones físicas. También esta semana, la empresa anunció Project Gameface para Android, que permite controlar los juegos de Android mediante gestos y movimientos de cabeza.
Aunque este proyecto había sido anunciado el año pasado, la compañía está integrándolo a Android para que el sistema operativo sea más incluyente con los jugadores que tienen limitaciones.
Google dijo que los desarrolladores ya pueden integrar esta nueva función de accesibilidad en sus aplicaciones de Android, lo que permitirá a los usuarios controlar un cursor con gestos faciales o moviendo la cabeza. «A través de la cámara del dispositivo, rastrea sin problemas las expresiones faciales y los movimientos de la cabeza, traduciéndolos en un control intuitivo y personalizado«, explicó Google.
Si bien estos avances están diseñados para la accesibilidad de las personas con movilidad reducida, traerán consigo una nueva experiencia que impactará diversas situaciones sociales a través de los smartphones.
Relacionados