La empresa Google, durante la presentación en su congreso para desarrolladores ha presentado Android Jelly bean, la versión 4.1 de este sistema operativo para dispositivos móviles.
Esta actualización marca definitivamente la tendencia de Google por unificar los criterios visuales de sus aplicaciones indicando a los desarrolladores que deben adoptar los temas visuales oficiales de Android 4.
Otras mejoras de esta nueva versión se orientan a mejorar la experiencia de usuario para tablets y teléfonos de pantalla grande.
En cuanto a la accesibilidad se han realizado una serie de mejoras interesantes como la definición de más tipos de controles para que los desarrolladores puedan identificar la función de cada control visual de la interfaz.
Las etiquetas de texto ahora pueden mostrar su contenido en diversas orientaciones para que la internacionalización de aplicaciones para usuarios de lenguas con lectura distinta a la occidental (de izquierda a derecha) puedan realizarse de forma más efectiva y sencilla para el desarrollador.
Se ha incorporado un control de gestos por el sistema para que, a través de un servicio u aplicación, se pueda manejar el dispositivo. Esto es, imaginemos que un usuario utiliza un joystick o trackpad para intentar controlar su dispositivo debido a que no es capaz de tocar la pantalla con precisión. El usuario estaba limitado a usar aplicaciones compatibles con su joystick. Ahora podrá utilizar casi cualquier aplicación que sea compatible con la capa de accesibilidad gracias a que un servicio podrá hacer de intermediario de gestos transmitiendo al sistema que se ha hecho un flick a la derecha si el usuario ha pulsado el joystick hacia la derecha. Es algo así como un traductor de eventos externos a gestos reconocidos por el sistema.
Se ha creado un cursor virtual propio de la capa de accesibilidad. Este cursor o control de foco será utilizado por lectores de pantalla como Talkback y Spiel para explorar aquellos controles visuales que, por desconocimiento o desidia del desarrollador, no podían ser focalizados.
El motor de síntesis de voz ha mejorado y se comenta que consume menos recursos y tiene una respuesta más rápida.
Se han rediseñado algunos servicios, como el control por voz, para que sean compatibles con la capa de accesibilidad.
Todas estas mejoras van sumando pero aún queda mucho camino por recorrer para Android debido a que hay problemas viejos, como que la capa de accesibilidad sigue siendo optativa para los desarrolladores y no se integra en la librería de controles estándares, o que el foco de accesibilidad y el foco del sistema carece de función para sincronizarse lo que puede provocar que un usuario de lector de pantallas se mueva por el interfaz y pierda la capacidad de poder activar cualquier elemento de la interfaz de la aplicación. Este último problema se puede solucionar rápidamente y ya ha sido notificado pero que la capa de accesibilidad siga siendo optativa, que no se pueda explorar el contenido carácter a carácter o que todavía no haya un método claro y sencillo para pausar la síntesis de voz y retomar el contenido desaniman un poco.
Además, es necesario indicar que Google sigue con su tendencia de parchear la accesibilidad de sus servicios ya que productos nuevos, como Google know, no parecen incluir compatibilidad con la capa de accesibilidad.
Esperemos que Android siga mejorando en su accesibilidad ya que esta estupenda plataforma para dispositivos móviles y electrodomésticos puede abrir muchas puertas y posibilidades a personas con necesidades especiales. Google debe comprometerse de forma clara y sincera con la accesibilidad y dejar de parchear sus productos y comenzar a construir de forma accesible desde el principio.