Touch type, teclado virtual accesible para ciegos en Android

Una de las limitaciones más importantes que existen en Android, en cuanto a accesibilidad del sistema para usuarios ciegos, es la imposibilidad de utilizar el teclado virtual en pantalla debido a las limitaciones de exploración de los elementos en pantalla a través de la pantalla táctil. Con Talkback o spiel, los dos lectores de pantallas compatibles, actualmente, con Android no se puede explorar la pantalla tocando con los dedos ya que el usuario, cuando coloca un dedo en la pantalla, activa el elemento y después de la activación la síntesis de voz verbaliza qué se ha activado. Esto provoca que el intentar escribir utilizando el teclado en pantalla sea una operación bastante compleja.

La solución ofrecida por el equipo de desarrollo de accesibilidad de Google y el proyecto Eye-free es un tanto ridícula. Oficialmente dicen que se utilice un teléfono con teclado físico o se conecte un teclado externo vía Bluetooth para poder escribir cualquier cosa. Esta solución va en contra del mercado, en el cual cada vez aparecen más teléfonos con sólo pantalla y sin botones. El conectar un teclado externo Bluetooth implica introducir una clave numérica en el terminal para emparejar los dispositivos, ¿pero, si no podemos teclear cómo introduciremos la clave de emparejamiento?

La comunidad de usuarios y desarrolladores de Android no tiene porqué conformarse con las decisiones de Google para Android. Un ejemplo de esto es el proyecto Touch type, desarrollado por un grupo de desarrollo independiente de Google.

Teclado virtual a semejanza de iPhone

Touch type es un programa para Android que permite sustituir el teclado habitual en Android por otro teclado con la particularidad de ser compatible con la síntesis de voz y accesible en la gestión de gestos en la pantalla.

El método de escritura es muy similar a uno de los métodos que ya se utilizan en el iPhone o en el iPad. Se debe arrastrar el dedo por la parte baja de la pantalla, cada vez que el dedo se coloque sobre una letra, esta será verbalizada. Si dejamos de tocar la pantalla, la letra será introducida en el campo de texto.

Para saber más sobre Touch type puedes visitar la página oficial del proyecto Touch type para Android

Esperanzas en un Android accesible para ciegos

Actualmente el proyecto Touch type está en versión beta, por lo que su funcionamiento no es del todo fiable, pero los resultados obtenidos en esta versión inicial hacen que se tengan esperanzas en tener un Android accesible para ciegos a medio plazo.

Lo que queda por hacer en accesibilidad de Android

Tras obtener una solución para el teclado virtual en Android, sólo falta que los lectores de pantallas se puedan utilizar a través de gestos en la pantalla en lugar de utilizar trackballs, cursores o touchpads, así como algunos botones de navegación. Además se debe conseguir una mayor integración de las librerías de accesibilidad para las aplicaciones disponibles en el Market de Android. Con esto podríamos decir que Android será un duro competidor de iOs en cuanto a la accesibilidad para usuarios ciegos.

En cuanto a otros perfiles de discapacidad decir que Google sigue distraída sin prestar oídos a las necesidades de otros perfiles de discapacidad.

Lectores de pantalla

Un lector o revisor de pantallas es una herramienta de asistencia para discapacitados visuales grabes o totales cuya principal función es transmitir al usuario la información que se visualiza por pantalla.

Dentro de los interfaces de texto (como serían la consola de Windows, MSDOS o el Bash de Linux) las funciones del lector de pantalla son simples. Sólo tiene que poder leer cada una de las diversas líneas de texto que aparecen en la consola y transmitirlas al usuario. Otras funciones asociadas para este tipo de lectores son las posibilidades de revisar línea a línea la pantalla, verbalizar los cambios sufridos en la pantalla o crear cuadros de detección para prestar mayor atención a zonas específicas de la pantalla.

El tener un interfaz visual basado en texto y con una estructura de distribución de la información simple, como es el caso de las consolas de texto, simplifica mucho la tarea del lector de pantallas. El problema aparece cuando el interfaz consiste en elementos visuales como iconos, cuadros de texto, ventanas, barras de desplazamiento y demás controles visuales utilizados por la mayoría de interfaces gráficos de usuario comunes en Windows, GNome, KDE y MacOS X.
En este caso el lector de pantallas tiene que realizar una interpretación previa de lo que existe y se ve en la pantalla para transmitirlo al usuario.

Esta interpretación del contenido visual se hace siguiendo un protocolo y conjunto de reglas denominado off screen model.

Dependiendo del tipo de Off screen model el lector de pantallas permitirá una exploración focal (siguiendo al foco del tabulador), exploración línea a línea (como el cursor de JAWS o un lector de pantallas para consola), exploración posicional (como hace voiceOver), o exploración gerarquica utilizando el árbol de objetos (como hace NVDA y tiflowin).
También influirá a la hora de transmitir cierta información como la fuente y color del texto de un control visual, el tamaño del control, el estado del control (activo, visible, oculto, etc) o las caracteristicas de accesibilidad o información alternativa del control (tooltips, globos de texto, etiquetas descriptivas, etc).

Hay que prestar atención en la diferencia que hay entre «lo que existe en la pantalla» y «lo que se ve en la pantalla» ya que el uso de ventanas solapables en los interfaces gráficos puede provocar que el usuario sin discapacidad visual no vea lo que hay detrás de una ventana aunque siga existiendo en el interfaz. El lector de pantallas debe detectar si el control o elemento del interfaz está visible para notificarle el estado al usuario ciego. El lector de pantallas puede controlar la información visual consultando al sistema operativo sobre el árbol de objetos visuales o parasitando el controlador de video, siendo la primera opción la menos intrusiva ya que no se requiere de la instalación de ningún driver o parche de control de video.
El árbol de objetos visuales es una representación abstracta de lo que hay en un interfaz gráfico de usuario. Es utilizado por el sistema operativo para estructurar los diversos elementos de un interfaz gráfico y actualizar el estado y gestionar los eventos. En el árbol de objetos podemos tener la rama inicial en el escritorio y de ella nacen varias ramas hijas representando a las ventanas de las aplicaciones abiertas que tengamos en ese momento, de una de esas ramas pueden colgar subramas para representar subventanas, botones, barras de menú, etc presentando una vista gerarquizada de los elementos del interfaz.

El lector de pantallas también debe estar pendiente del dispositivo de entrada, sea este un teclado, una pantalla táctil o una botonera. El usuario ciego deberá utilizar el dispositivo de entrada para explorar el interfaz gráfico e interactuar con él. Por esta razón el lector de pantallas deberá modificar el comportamiento del dispositivo de entrada para incluir ciertas combinaciones de teclas, gestos o movimientos determinados para realizar las funciones de exploración en el interfaz(leer una ventana o cuadro de texto, moverse al elemento anterior o siguiente del interfaz, activar un elemento del interfaz, etc).

El lector de pantallas debe transmitir el resultado de la interpretación del interfaz al usuario con discapacidad visual utiizando un canal accesible para él, como puede ser voz sintética, eventos de sonido o salida por un dispositivo de lectura braille.

En resumen, un lector de pantallas se compone de los siguientes elementos:

  • Módulo de control del interfaz gráfico
  • Módulo de control del dispositivo de entrada
  • Módulo de salida de información
  • Off screen model

Dentro del catálogo de operaciones que un usuario puede pedir a un lector de pantallas están: Leer caracter, palabra, línea anterior, actual o siguiente; consultar tipo, tamaño y color de fuente, leer título y última línea de la ventana, repetir lo último verbalizado, etc.

Algunos ejemplos de lectores de pantalla son: NVDA, Window eyes, JAWS, Dolphin HAL, Thunder, voiceOver, Orca, Mobile speak, Talks, out spoken, virgo, tiflowin, lector98, habla, parla, etc.

Magnificadores de pantalla

Algunos usuarios poseen una discapacidad que, aunque pudiendo apreciar visualmente el mundo que les rodea, no pueden utilizar un ordenador debido a que la resolución o el tamaño o los colores empleados en la pantalla no pueden ser percibidos de forma clara, impidiendo la lectura del contenido de la pantalla al usuario. Este tipo de usuario necesita algo que realice la función de lupa o filtro de color para la pantalla, esta es la función de los magnificadores de pantalla.
Un magnificador de pantalla es, básicamente, un software que simula el efecto de una lupa sobre la pantalla del ordenador. Esta magnificación de la imagen de la pantalla se puede realizar en diferentes grados de aumento (zoom) y de diversas formas de visualización (a pantalla completa o mostrando la ampliación en un area determinada de la pantalla). Dependiendo de las necesidades del usuario, estos parámetros cambiarán.
Los aumentos realizables por un magnificador de pantalla dependen del algoritmo que emplee para realizar la ampliación (con efectos de antialiasing, proyecciones vectoriales o redimensionado matricial), y el método de tratamiento de la información de video (utilizando la propia VRAM y el hardware de video instalado en el equipo o delegandolo todo al procesador y el sistema operativo). Dependiendo de todos estos factores, un magnificador de pantalla puede realizar una ampliación de entre 1,5 aumentos y 700 aumentos.
A parte de la función de aumentar la imagen de la pantalla, algunos magnificadores de pantalla permiten aplicar un filtro de color a la imagen ampliada para que el usuario pueda personalizar el contraste de color y los tonos empleados en la imagen ampliada.
El foco de ampliación es un area móvil de la pantalla que, a semejanza del puntero del ratón, señaliza donde se encuentra el foco o zona de la pantalla que debe ser ampliada. Este foco puede ser modificado mediante el uso del ratón (siguiendo el foco de ampliación al puntero del ratón) mediante el uso de teclas de función o por eventos del sistema (ventanas o areas de pantalla que actualizan su información). El problema de estos movimientos de foco es transmitir al usuario, en todo momento, donde se encuentra ya que si el foco es modificado de repente, puede provocar una confusión del usuario. Por ejemplo: imaginemos que el usuario se encuentra leyendo un documento en su procesador de textos y el foco de ampliación está sobre la mitad de la pantalla. De repente, llega un correo electrónico y se muestra un pequeño icóno indicando de la presencia de nuevo correo. El magnificador de pantalla puede llevar el foco de ampliación directamente al icono de notificación de correo nuevo, si nuestro usuario no está atento puede leer algo como ‘En un lugar de la Mancha de cuyo correo electrónico nuevo…’.
Para solventar estos problemas y aumentar la funcionalidad de los magnificadores de pantalla se han hecho uso de tecnologías de síntesis de voz para notificar al usuario, mediante voz, la información acerca de lo que está leyendo o si el magnificador o el sistema ha realizado alguna operación.
Algunos sistemas operativos llevan incluidos un magnificador de pantalla rudimentario por lo que se opta por instalar software más funcional cuyas prestaciones son cada vez más cercanas a las que brinda un lector de pantallas al incluir síntesis de voz, posicionamiento subjetivo, navegación utilizando MSAA o AT-SPI u otras características de accesibilidad de los sistemas operativos.
Los problemas de accesibilidad que encuentran los usuarios de magnificadores de pantalla, a parte de encontrar imágenes sin un contraste suficiente para poder apreciar los detalles de una imagen o el uso de colores no soportados nativamente por el sistema, están los diseños de tamaños enormes que provocan la aparición de barras de desplazamiento horizontal o la existencia de contenido visual dinámico ((animaciones, videos, etc) que provocan que el magnificador intente focalizar todo lo que se mueva o que el propio usuario no pueda determinar qué ocurre en la animación o el video al, únicamente, poder visualizar una zona muy limitada de la imágen. Es como si intentasemos ver una película en el cine utilizando unas gafas cuya superficie de visualización fuera un pequeño círculo de 3cm de radio. Para ver la pantalla tendríamos que girar continuamente la cabeza para ver toda la pantalla y, aún así, no podríamos ver toda la pantalla en un mismo instante.

Algunos ejemplos de magnificadores de pantalla son: Gnome-Mag, Zoomtext, Once Mega 98, Magic, Supernova, Lunar.

Android 2.3, una decepcionante novedad en accesibilidad

A principios de este mes de Diciembre Google publicó la última versión de su sistema operativo para dispositivos móviles, más conocido como Android.

Esta nueva versión, la 2.3, cuyo nombre en clave es galleta de jengibre, prometía incluir sustanciosas mejoras en accesibilidad para aquellos usuarios con discapacidad visual.

Tras la publicación de la noticia por parte de Google, muchos de los que estamos interesados en Android y su accesibilidad consultamos la lista de novedades y mejoras de esta nueva versión. el resultado fue del todo decepcionante. Ni una sola mención a cualquier mejora o característica de accesibilidad.

En la lista de correo del grupo de usuarios del proyecto Eyes-free, donde se localiza TalkBack el lector de pantallas oficial para Android, muchos usuarios publicaron mensajes transmitiendo sus quejas y decepción ante esta aparente ignorancia de Google por las necesidades de los usuarios de Android con discapacidad visual. Hasta la fecha ningún miembro del equipo de desarrollo de Eyes-free ha dado una respuesta a las decenas de preguntas hechas por los usuarios de Talkback en la lista.

Android puede ser una buena alternativa ante el inminente monopolio que se puede crear en un futuro temprano sobre plataformas accesibles para dispositivos móviles. Symbian está muriendo lentamente, Apple, con iOS, parece ganar cada día más terreno entre los usuarios con discapacidad, alternativas como Samsung Bada o Meego siguen sin una base de accesibilidad y, el gran contrincante de Apple en sistemas operativos para dispositivos móviles, nos referimos a Google, parece que no entiende que las leyes, cada vez más, obligarán a la adquisición de dispositivos accesibles por parte de las administraciones de países y grandes corporaciones.

Un servidor no entiende, actualmente, esta posición de Google de ignorar la necesidad de una solución accesible para Android. No se sabe, a ciencia cierta, si es incapacidad del proyecto Eyes-free por aportar una solución concreta y eficiente de accesibilidad para los usuarios con discapacidad visual. El equipo de desarrolladores ha hecho un buen trabajo con Talkback pero no es un producto terminado. No permite utilizar cualquier dispositivo con Android por parte de una persona ciega, no es compatible con las aplicaciones primarias de Android, como pueden ser el navegador Web o el cliente de correo electrónico. Hay programas alternativos en el Market de Android, la tienda on-line de aplicaciones para Android, pero esto imposibilita el hecho de identificar un teléfono con Android como un dispositivo accesible desde la caja.

Parece que el culpable de este desinterés por la accesibilidad se origina en Google al ver sus más recientes lanzamientos.

Google books, para iOS, es una aplicación para iPhone e iPad que permite acceder, comprar y leer libros en la tienda de libros de Google. La aplicación resulta accesible a la hora de manipular los libros, el acceso a la tienda y falla rotundamente en accesibilidad en su principal función: no permite leer los libros con lectores de pantalla. Un usuario ciego de iPhone o iPad podrá comprar libros electrónicos, ordenarlos en su librería, borrarlos o consultar el catálogo de obras disponibles pero no podrá leer ningún libro que haya adquirido.

Google Chrome OS, el sistema operativo de Google para equipos de sobremesa, ha aparecido sin ninguna característica de accesibilidad. Por no tener, no tiene ni teclas pegajosas, campana de sistema o un tema de alto contraste por defecto.

Esperemos que Google rectifique en su postura y comprenda que la accesibilidad y el diseño para todos son sellos de calidad en los proyectos de hardware y software.

La accesibilidad en crisis para los desarrolladores ciegos

En todas partes se habla de la accesibilidad en general, en otras partes, además, se habla de la accesibilidad a la Web. En muy pocas partes se habla de los problemas que encontramos los desarrolladores ciegos para poder diseñar y desarrollar software.

En la red se está moviendo una corriente de curiosidad sobre si una persona con ceguera puede desarrollar software. La respuesta, hablando desde mi experiencia personal como desarrollador en varios lenguajes y plataformas, es que si pero no gracias a esas grandes empresas y organizaciones que se mueven en pro de la accesibilidad. Esa accesibilidad que atrae a la gente y los medios de comunicación es para una mayoría de personas con discapacidad, con perfiles de discapacidad mayoritarios. Digo esto porque conozco la postura de grandes empresas como Sun microsystems, recientemente adquirida por Oracle, que no duda en adherirse a proyectos europeos en pro de la Accesibilidad pero ante una pregunta de un servidor sobre si sus herramientas de desarrollo serán accesibles también le contestaron que hay muy pocos desarolladores ciegos en el mundo como para tomarse el trabajo. Otra gran empresa de desarrollo de software y sistemas operativos, hablamos de Microsoft, que tiene uno de los departamentos de accesibilidad con más personal del mundo; parece que se asegura que cada nueva versión de sus diversos productos software guarden una compatibilidad hacia atrás en su interfaz para mantener la poca accesibilidad que tengan sus productos. Esto es así excepto para sus herramientas de desarrollo, donde a cada nueva versión un desarrollador ciego encontrará más y más problemas. Apple, empresa que se enorgullece de sacar todos sus productos accesibles desde la caja y con un departamento de accesibilidad bastante funcional, ante la petición de hacer más accesible su herramienta de diseño de interfaces comenta que mejor esforzarse en hacer accesible la versión que saldrá para la nueva generación de su suite de desarrollo software, suite que va con retraso y mientras un servidor diseña los interfaces de sus aplicaciones para MacOS X, iPhone e iPad utilizando matemáticas, mucha imaginación y mucha cantidad de código fuente en sus programas.

Las propias empresas de desarrollo de software para personas con discapacidad, como pueden ser Freedom scientific (creadores de Jaws), GWMicro (Window eyes) o Dolphin software (creadores de Hal) no se interesan en proporcionar soporte, scripts y mapas de ventana para sus lectores de pantalla.

Editoriales que publican sus libros o sólo en papel o en formato electrónico donde el código fuente se imprime en una imagen, o redactan las explicaciones haciendo referencia a imágenes y resultados visuales por pantalla.

Con todo esto se podría aventurar uno a decir que no se puede programar si un desarrollador no puede ver la pantalla. Incluso hay un movimiento por crear un lenguaje de programación para ciegos ya que con los actuales parece que no puede trabajar un desarrollador ciego.

La realidad es que los lenguajes de programación son, la gran mayoría, completamente accesibles. Lo inaccesible son los entornos de desarrollo o herramientas de desarrollo. ¿Para qué quiero aprender un lenguaje de programación discriminatorio que no va a utilizar ninguna empresa de desarrollo de software? Nadie me contrataría si sólo domino un lenguaje de programación para ciegos. Un desarrollador debe conocer varios lenguajes de programación y dominar el manejo de los entornos de desarrollo para dichos lenguajes. Si un entorno de desarrollo es inaccesible, como puede ser el nuevo Visual studio 2010, un desarrollador ciego puede optar por utilizar un procesador de textos común y corriente, y normalmente muy accesible, y utilizar el compilador y depurador en línea desde la consola de comandos. El problema de esta solución es que hace que el desarrollador ciego sea menos productivo que un desarrollador que utilice Visual Studio 2010 y en la actualidad las empresas valoran más la productividad del desarrollador que su situación o la calidad de su código.

En esta situación de posible baja productividad nos encontramos muchos desarrolladores ciegos obligados por cada nueva versión que sale de un entorno de desarrollo por parte de estas empresas con gran responsabilidad social. Estas empresas que condenan a muchos profesionales del desarrollo software que poseen una discapacidad visual a buscar sus propias soluciones porque ni las empresas que desarrollan sus productos de apoyo les apoyan.

La conclusión es que la respuesta inicial se convierte en: hay desarrolladores ciegos pero están en peligro de extinción gracias a los mismos que alzan el estandarte de la accesibilidad para todos.