Activación rápida de los productos de apoyo en iOS

En iOS, el sistema operativo de Apple para sus dispositivos móviles, se incluyen varios productos de apoyo para ayudar a diversos perfiles con discapacidad a la hora de acceder a los contenidos y funcionalidades del dispositivo.

En otras plataformas de dispositivos móviles la activación o desactivación del producto de apoyo suele consistir en la ejecución de un programa instalado en el propio dispositivo, este método suele resultar inaccesible para los usuarios ya que se enfrenta a un problema muy simple: ¿cómo va a encontrar el programa de activación del producto de apoyo un usuario con discapacidad que necesite dicho producto de apoyo para manejar el dispositivo? La solución en estos casos pasa por dejar activado siempre el producto de apoyo. Esto hace que el teléfono resulte inaccesible para las personas que no sepan manejar ese producto de apoyo o no tengan ese perfil de discapacidad. Esto se debe a que, normalmente, el producto de apoyo modifica el comportamiento de teclado y gestos en pantallas táctiles para incorporar las funciones de navegación y exploración del producto de apoyo para que el usuario con discapacidad pueda utilizar el dispositivo de forma cómoda para su perfil de discapacidad. El producto de apoyo se convierte en inaccesible para las personas sin discapacidad u otros perfiles de discapacidad impidiendo que se pueda compartir el dispositivo entre otras personas.

Apple ha pensado en este problema y ha incluido un método de activación/desactivación rápida de los productos de apoyo incluidos en el sistema. De esta forma una familia puede utilizar un iPad u otro dispositivo sin preocuparse de que el miembro de la familia que tiene discapacidad se quede sin su producto de apoyo.

Triple pulsación del botón inicio

Los dispositivos móviles táctiles de Apple incluyen, bajo la pantalla normalmente, un pequeño botón circular denominado Home o inicio. Este botón se utiliza para salir de las aplicaciones, acceder a las aplicaciones abiertas en segundo plano y otras funciones. A este botón podemos añadirle una nueva funcionalidad asociada al gesto de pulsarlo tres veces. Esta nueva funcionalidad nos permitirá activar o desactivar un producto de apoyo de iOS de forma rápida e incluso acceder a un menú de selección para activar uno de los productos de apoyo del sistema.

Para activar este gesto de tres pulsaciones en el botón de inicio debemos ir a Ajustes / general / accesibilidad. Allí encontraremos una opción llamada click triple en inicio. Entraremos en esta opción y nos aparecerá un menú de selección para activar/desactivar rápidamente el producto de apoyo deseado. Por ejemplo, los usuarios ciegos deberían seleccionar VoiceOver, de esta forma podrán activar/desactivar rápidamente el lector de pantallas.

Entre las opciones disponibles para el triple inicio encontramos una denominada preguntar, esta opción lo que hace es que cuando pulsemos el botón inicio tres veces salga un cuadro de diálogo que nos permite activar/desactivar rápidamente uno de los productos de apoyo. Esta opción es ideal para los desarrolladores de software de iOS que quieran verificar el nivel de accesibilidad de sus productos utilizando las herramientas de accesibilidad proporcionadas por Apple

Convertidores de texto a voz

Las personas ciegas, desde hace unas décadas, han tomado el hábito de leer utilizando grabaciones de los textos de su interés. Para ello se han utilizado multitud de formatos mediante cintas magnetofónicas, las clásicas cassettes hasta llegar a la última tecnología de sonido digital utilizando CDs en formato Daisy.

El problema de leer un texto mediante una grabación de voz era que había que esperar a que un locutor, fuese de una organización de ciegos, una persona voluntaria o una colaboración con una institución, grabase el libro en audio y se editase para su correcta lectura. Esto provocaba que un ciego debiese esperar, al menos, 12 meses desde la aparición de un libro hasta la posibilidad, no asegurada, de leerlo en cinta.

En los últimos años la tecnología ha permitido la aparición de una alternativa más que fantástica, la utilización de la síntesis de voz digital, propia de equipos informáticos, para convertir textos digitales a grabaciones sonoras.

Al principio las voces eran demasiado metálicas y monótonas, por lo que este tipo de software era utilizado por personas que realmente lo necesitasen. En la actualidad la calidad de las voces ha mejorado tanto que es utilizado por multitud de personas y servicios de atención y comunicación sonora. Es un claro ejemplo de tecnología de uso exclusivo de personas con discapacidad que se ve empujada por el creciente interés de todos los públicos por su gran utilidad.

Las voces digitales dependen de un motor de síntesis de voz, capáz de comunicarse con la tarjeta de sonido del equipo informático para reproducir los diversos sonidos encadenados que formarán las frases habladas. Además, este motor de voz tendrá encuenta reglas lingüísticas y de entonación. Pero el motor de voz necesita de unos patrones sonoros o de pequeñas grabaciones de pronunciación que permitan definir el tono, el acento y la sonoridad final que tendrá la grabación, a este conjunto de datos se le conoce como una voz para un motor de síntesis.

En los sistemas operativos pertenecientes a la familia Microsoft Windows existen unas librerías para poder utilizar diversos motores de voz de forma sencilla para aumentar la compatibilidad entre software. Estas librerías son conocidas como SAPI (Speech Application Program Interface).

Puedes obtener el motor de síntesis de voz SAPI 5.1 de la página de descarga de SAPI 5.1 aunque en las versiones actuales de Microsoft Windows, más concretamente a partir de la versión de Windows XP, SAPI 5 ya viene incluida en el sistema.

En idioma castellano hay multitud de voces gratuítas para el formato SAPI 4. Para Microsoft Windows XP/2003/Vista (últimas versiones de este sistema operativo) se utiliza, de serie, el formato SAPI 5.1. Hay pocas voces gratuítas para este formato aunque podemos utilizar la voz de Isabel para SAPI 5.1. Hay compañías, como Loquendo o Nuance, que se dedican a crear voces de calidad para terminales de atención al cliente, puntos de venta automatizados o sistemas de megafonía para estaciones de transporte y aeropuertos.

En los equipos con MacOS X, el sistema operativo de Apple para sus equipos portátiles y de sobremesa, existe integrado en el sistema un motor de voz genérico que puede ser utilizado por diversos programas y servicios del sistema. Actualmente se incluyen varias voces con diversos acentos y efectos sonoros aunque el problema es que todas las voces están en inglés. Se pueden adquirir voces para otros idiomas.

En GNU-Linux tenemos varios motores o librerías de síntesis de voz como Festival, Mbrola o una versión para GNU-Linux de Eloquence. Todos estos motores de voz se utilizan en el sistema a través de un interfazque comunique las aplicaciones del sistema con el motor de voz, un ejemplo de este tipo de interfaz es Gnome-speech.

En un equipo informático con un motor de síntesis de voz instalado, con sus correspondientes voces, podemos utilizar algunos programas especializados en convertir textos digitales a ficheros de audio. Son los programas conocidos como conversores de texto a voz. Estos programas nos permiten convertir largos textos en formato Word, TXT, RTF o PDF en un conjunto de ficheros de sonido en formato MP3 que podemos escuchar con nuestro reproductor portatil de música mientras caminamos o utilizamos el transporte público.

Una opción sencilla y gratuíta es el programa DSpeech, que funciona tanto con SAPI 4.0 y SAPI 5.1 permitiendo convertir textos a formato WAV o MP3. Puedes obtener DSpeech en castellano y valenciano de la web de Tifloinforma. Su instalación es muy sencilla ya que sólo debes descomprimir el fichero comprimido en la carpeta donde quieras guardar DSpeech y ejecutar el archivo .EXE que hay en su interior.

Para MacOS X existe el programa Ghost reader. Este programa nos permite convertir cualquier documento de texto que pueda abrir la vista previa en un fichero mp3 o m4b utilizando las voces del sistema o unas voces compatibles con este programa e incluir el resultado de la conversión directamente en nuestra librería de iTunes para poder leer el documento en nuestro iPod, iPhone o dispositivo móvil de Apple.

Touch type, teclado virtual accesible para ciegos en Android

Una de las limitaciones más importantes que existen en Android, en cuanto a accesibilidad del sistema para usuarios ciegos, es la imposibilidad de utilizar el teclado virtual en pantalla debido a las limitaciones de exploración de los elementos en pantalla a través de la pantalla táctil. Con Talkback o spiel, los dos lectores de pantallas compatibles, actualmente, con Android no se puede explorar la pantalla tocando con los dedos ya que el usuario, cuando coloca un dedo en la pantalla, activa el elemento y después de la activación la síntesis de voz verbaliza qué se ha activado. Esto provoca que el intentar escribir utilizando el teclado en pantalla sea una operación bastante compleja.

La solución ofrecida por el equipo de desarrollo de accesibilidad de Google y el proyecto Eye-free es un tanto ridícula. Oficialmente dicen que se utilice un teléfono con teclado físico o se conecte un teclado externo vía Bluetooth para poder escribir cualquier cosa. Esta solución va en contra del mercado, en el cual cada vez aparecen más teléfonos con sólo pantalla y sin botones. El conectar un teclado externo Bluetooth implica introducir una clave numérica en el terminal para emparejar los dispositivos, ¿pero, si no podemos teclear cómo introduciremos la clave de emparejamiento?

La comunidad de usuarios y desarrolladores de Android no tiene porqué conformarse con las decisiones de Google para Android. Un ejemplo de esto es el proyecto Touch type, desarrollado por un grupo de desarrollo independiente de Google.

Teclado virtual a semejanza de iPhone

Touch type es un programa para Android que permite sustituir el teclado habitual en Android por otro teclado con la particularidad de ser compatible con la síntesis de voz y accesible en la gestión de gestos en la pantalla.

El método de escritura es muy similar a uno de los métodos que ya se utilizan en el iPhone o en el iPad. Se debe arrastrar el dedo por la parte baja de la pantalla, cada vez que el dedo se coloque sobre una letra, esta será verbalizada. Si dejamos de tocar la pantalla, la letra será introducida en el campo de texto.

Para saber más sobre Touch type puedes visitar la página oficial del proyecto Touch type para Android

Esperanzas en un Android accesible para ciegos

Actualmente el proyecto Touch type está en versión beta, por lo que su funcionamiento no es del todo fiable, pero los resultados obtenidos en esta versión inicial hacen que se tengan esperanzas en tener un Android accesible para ciegos a medio plazo.

Lo que queda por hacer en accesibilidad de Android

Tras obtener una solución para el teclado virtual en Android, sólo falta que los lectores de pantallas se puedan utilizar a través de gestos en la pantalla en lugar de utilizar trackballs, cursores o touchpads, así como algunos botones de navegación. Además se debe conseguir una mayor integración de las librerías de accesibilidad para las aplicaciones disponibles en el Market de Android. Con esto podríamos decir que Android será un duro competidor de iOs en cuanto a la accesibilidad para usuarios ciegos.

En cuanto a otros perfiles de discapacidad decir que Google sigue distraída sin prestar oídos a las necesidades de otros perfiles de discapacidad.

Lectores de pantalla

Un lector o revisor de pantallas es una herramienta de asistencia para discapacitados visuales grabes o totales cuya principal función es transmitir al usuario la información que se visualiza por pantalla.

Dentro de los interfaces de texto (como serían la consola de Windows, MSDOS o el Bash de Linux) las funciones del lector de pantalla son simples. Sólo tiene que poder leer cada una de las diversas líneas de texto que aparecen en la consola y transmitirlas al usuario. Otras funciones asociadas para este tipo de lectores son las posibilidades de revisar línea a línea la pantalla, verbalizar los cambios sufridos en la pantalla o crear cuadros de detección para prestar mayor atención a zonas específicas de la pantalla.

El tener un interfaz visual basado en texto y con una estructura de distribución de la información simple, como es el caso de las consolas de texto, simplifica mucho la tarea del lector de pantallas. El problema aparece cuando el interfaz consiste en elementos visuales como iconos, cuadros de texto, ventanas, barras de desplazamiento y demás controles visuales utilizados por la mayoría de interfaces gráficos de usuario comunes en Windows, GNome, KDE y MacOS X.
En este caso el lector de pantallas tiene que realizar una interpretación previa de lo que existe y se ve en la pantalla para transmitirlo al usuario.

Esta interpretación del contenido visual se hace siguiendo un protocolo y conjunto de reglas denominado off screen model.

Dependiendo del tipo de Off screen model el lector de pantallas permitirá una exploración focal (siguiendo al foco del tabulador), exploración línea a línea (como el cursor de JAWS o un lector de pantallas para consola), exploración posicional (como hace voiceOver), o exploración gerarquica utilizando el árbol de objetos (como hace NVDA y tiflowin).
También influirá a la hora de transmitir cierta información como la fuente y color del texto de un control visual, el tamaño del control, el estado del control (activo, visible, oculto, etc) o las caracteristicas de accesibilidad o información alternativa del control (tooltips, globos de texto, etiquetas descriptivas, etc).

Hay que prestar atención en la diferencia que hay entre «lo que existe en la pantalla» y «lo que se ve en la pantalla» ya que el uso de ventanas solapables en los interfaces gráficos puede provocar que el usuario sin discapacidad visual no vea lo que hay detrás de una ventana aunque siga existiendo en el interfaz. El lector de pantallas debe detectar si el control o elemento del interfaz está visible para notificarle el estado al usuario ciego. El lector de pantallas puede controlar la información visual consultando al sistema operativo sobre el árbol de objetos visuales o parasitando el controlador de video, siendo la primera opción la menos intrusiva ya que no se requiere de la instalación de ningún driver o parche de control de video.
El árbol de objetos visuales es una representación abstracta de lo que hay en un interfaz gráfico de usuario. Es utilizado por el sistema operativo para estructurar los diversos elementos de un interfaz gráfico y actualizar el estado y gestionar los eventos. En el árbol de objetos podemos tener la rama inicial en el escritorio y de ella nacen varias ramas hijas representando a las ventanas de las aplicaciones abiertas que tengamos en ese momento, de una de esas ramas pueden colgar subramas para representar subventanas, botones, barras de menú, etc presentando una vista gerarquizada de los elementos del interfaz.

El lector de pantallas también debe estar pendiente del dispositivo de entrada, sea este un teclado, una pantalla táctil o una botonera. El usuario ciego deberá utilizar el dispositivo de entrada para explorar el interfaz gráfico e interactuar con él. Por esta razón el lector de pantallas deberá modificar el comportamiento del dispositivo de entrada para incluir ciertas combinaciones de teclas, gestos o movimientos determinados para realizar las funciones de exploración en el interfaz(leer una ventana o cuadro de texto, moverse al elemento anterior o siguiente del interfaz, activar un elemento del interfaz, etc).

El lector de pantallas debe transmitir el resultado de la interpretación del interfaz al usuario con discapacidad visual utiizando un canal accesible para él, como puede ser voz sintética, eventos de sonido o salida por un dispositivo de lectura braille.

En resumen, un lector de pantallas se compone de los siguientes elementos:

  • Módulo de control del interfaz gráfico
  • Módulo de control del dispositivo de entrada
  • Módulo de salida de información
  • Off screen model

Dentro del catálogo de operaciones que un usuario puede pedir a un lector de pantallas están: Leer caracter, palabra, línea anterior, actual o siguiente; consultar tipo, tamaño y color de fuente, leer título y última línea de la ventana, repetir lo último verbalizado, etc.

Algunos ejemplos de lectores de pantalla son: NVDA, Window eyes, JAWS, Dolphin HAL, Thunder, voiceOver, Orca, Mobile speak, Talks, out spoken, virgo, tiflowin, lector98, habla, parla, etc.

Magnificadores de pantalla

Algunos usuarios poseen una discapacidad que, aunque pudiendo apreciar visualmente el mundo que les rodea, no pueden utilizar un ordenador debido a que la resolución o el tamaño o los colores empleados en la pantalla no pueden ser percibidos de forma clara, impidiendo la lectura del contenido de la pantalla al usuario. Este tipo de usuario necesita algo que realice la función de lupa o filtro de color para la pantalla, esta es la función de los magnificadores de pantalla.
Un magnificador de pantalla es, básicamente, un software que simula el efecto de una lupa sobre la pantalla del ordenador. Esta magnificación de la imagen de la pantalla se puede realizar en diferentes grados de aumento (zoom) y de diversas formas de visualización (a pantalla completa o mostrando la ampliación en un area determinada de la pantalla). Dependiendo de las necesidades del usuario, estos parámetros cambiarán.
Los aumentos realizables por un magnificador de pantalla dependen del algoritmo que emplee para realizar la ampliación (con efectos de antialiasing, proyecciones vectoriales o redimensionado matricial), y el método de tratamiento de la información de video (utilizando la propia VRAM y el hardware de video instalado en el equipo o delegandolo todo al procesador y el sistema operativo). Dependiendo de todos estos factores, un magnificador de pantalla puede realizar una ampliación de entre 1,5 aumentos y 700 aumentos.
A parte de la función de aumentar la imagen de la pantalla, algunos magnificadores de pantalla permiten aplicar un filtro de color a la imagen ampliada para que el usuario pueda personalizar el contraste de color y los tonos empleados en la imagen ampliada.
El foco de ampliación es un area móvil de la pantalla que, a semejanza del puntero del ratón, señaliza donde se encuentra el foco o zona de la pantalla que debe ser ampliada. Este foco puede ser modificado mediante el uso del ratón (siguiendo el foco de ampliación al puntero del ratón) mediante el uso de teclas de función o por eventos del sistema (ventanas o areas de pantalla que actualizan su información). El problema de estos movimientos de foco es transmitir al usuario, en todo momento, donde se encuentra ya que si el foco es modificado de repente, puede provocar una confusión del usuario. Por ejemplo: imaginemos que el usuario se encuentra leyendo un documento en su procesador de textos y el foco de ampliación está sobre la mitad de la pantalla. De repente, llega un correo electrónico y se muestra un pequeño icóno indicando de la presencia de nuevo correo. El magnificador de pantalla puede llevar el foco de ampliación directamente al icono de notificación de correo nuevo, si nuestro usuario no está atento puede leer algo como ‘En un lugar de la Mancha de cuyo correo electrónico nuevo…’.
Para solventar estos problemas y aumentar la funcionalidad de los magnificadores de pantalla se han hecho uso de tecnologías de síntesis de voz para notificar al usuario, mediante voz, la información acerca de lo que está leyendo o si el magnificador o el sistema ha realizado alguna operación.
Algunos sistemas operativos llevan incluidos un magnificador de pantalla rudimentario por lo que se opta por instalar software más funcional cuyas prestaciones son cada vez más cercanas a las que brinda un lector de pantallas al incluir síntesis de voz, posicionamiento subjetivo, navegación utilizando MSAA o AT-SPI u otras características de accesibilidad de los sistemas operativos.
Los problemas de accesibilidad que encuentran los usuarios de magnificadores de pantalla, a parte de encontrar imágenes sin un contraste suficiente para poder apreciar los detalles de una imagen o el uso de colores no soportados nativamente por el sistema, están los diseños de tamaños enormes que provocan la aparición de barras de desplazamiento horizontal o la existencia de contenido visual dinámico ((animaciones, videos, etc) que provocan que el magnificador intente focalizar todo lo que se mueva o que el propio usuario no pueda determinar qué ocurre en la animación o el video al, únicamente, poder visualizar una zona muy limitada de la imágen. Es como si intentasemos ver una película en el cine utilizando unas gafas cuya superficie de visualización fuera un pequeño círculo de 3cm de radio. Para ver la pantalla tendríamos que girar continuamente la cabeza para ver toda la pantalla y, aún así, no podríamos ver toda la pantalla en un mismo instante.

Algunos ejemplos de magnificadores de pantalla son: Gnome-Mag, Zoomtext, Once Mega 98, Magic, Supernova, Lunar.

Excepciones de pronunciación para VoiceOver en MacOS X

Los usuarios de lectores de pantalla encuentran un serio problema a la hora de comprender ciertos mensajes que transmite su dispositivo al usuario a través de una síntesis de voz. Estos problemas se suelen originar por una incorrecta pronunciación por parte de la síntesis de voz de algunos términos o palabras en otros idiomas, siglas o términos científicos.

Algunos motores de síntesis de voz, como Infovox ivox para MacOS X, incorporan un mecanismo de personalización de pronunciación que permite modificar algunas palabras a la hora de ser pronunciadas. El problema aparece cuando el propio motor de voz posee ciertos términos predefinidos a la hora de ser pronunciados. Un ejemplo puede ser dl ( decílitro). La herramienta de diccionario, que es como se conoce a este tipo de aplicaciones que permiten modificar el comportamiento de una síntesis de voz a la hora de pronunciar algunas palabras, aunque admita el nuevo término, no cambiará la pronunciación ya que las pronunciaciones predefinidas poseen más prioridad que las pronunciaciones definidas por el usuario.

La solución pasa por utilizar la herramienta de diccionario del propio lector de pantallas. En el caso de Infovox iVox, al tratarse de MacOS X, es VoiceOver.

Realizaremos un breve ejercicio de modificar la pronunciación de dl (decílitro) por dl (de ele).

Abriremos la ventana de configuración de VoiceOver pulsando VO+F8. Las teclas VO corresponden a pulsar Control+ALT, por lo que la pulsación anterior sería Control+ALT+F8. Se abrirá la ventana de configuración de voiceOver.

En la categoría llamada Texto hablado encontraremos la pestaña Pronunciación.

Aquí encontraremos una tabla con las modificaciones de pronunciación definidas por el usuario. En la parte baja de la ventana encontraremos el botón agregar para añadir una nueva modificación de pronunciación.

Al pulsar el botón agregar VoiceOver nos llevará a un cuadro de texto vacío donde deberemos meter el término original, en nuestro caso las letras d (de) y l (ele). Tras introducirlas debemos pulsar la tecla tabular, VoiceOver nos llevará a un nuevo campo de texto vacío donde deberemos introducir cómo queremos que se pronuncie el nuevo término. En nuestro caso recomiendo escribir de,ele.

Si seguimos pulsando la tecla tabular pasaremos a un botón de menú para especificar si queremos que el cambio de pronunciación afecte a todo el sistema o a una aplicación en concreto. Esto es util, por ejemplo, para modificar la pronunciación de emoticonos en nuestra aplicación de chat habitual.

Si pulsamos una vez más la tecla tabular nos lleva a una casilla de verificación que nos permite indicar si queremos que se distinga entre mayúsculas o no a la hora de pronunciar. Esto significa que no será lo mismo ms que Ms, o mS o MS (cambiando algunas letras por mayúsculas en cada caso).

Una vez creado nuestra nueva regla de pronunciación podemos cerrar la ventana de configuración de VoiceOver o buscar el botón agregar para añadir otra nueva regla de pronunciación.