Semana de encuentros Ceapat 2025.

La Semana de los Encuentros Ceapat 2025 se celebrará del 3 al 7 de noviembre en Madrid.

Este evento está organizado por el Centro de Referencia Estatal de Autonomía Personal y Ayudas Técnicas (CEAPAT). El evento se presenta como un foro profesional que reúne a especialistas, administraciones, empresas y organismos sociales en torno al reto común de avanzar en la accesibilidad universal, la autonomía personal y el diseño de productos y servicios inclusivos buscando facilitar el intercambio de conocimiento y experiencias, fomentar la reflexión sobre buenas prácticas y generar documentación especializada que permanezca como recurso público. En esta edición la Semana persigue además situar las tecnologías, los apoyos técnicos y las políticas de accesibilidad en su dimensión estratégica, entendiendo la accesibilidad no sólo como obligación legal, sino como oportunidad para incorporar los valores de la igualdad, la participación y la innovación en todos los ámbitos de la vida.

Mi participación en el evento

El viernes 7 de noviembre formaré parte de la jornada final de la Semana de Encuentros Ceapat 2025, un día íntegramente dedicado a aterrizar la aplicación del Acta Europea de Accesibilidad en productos y servicios reales.

El enfoque elegido para el 7 de noviembre es especialmente pertinente por el momento regulatorio actual. La aplicación del Acta Europea de Accesibilidad es exigible en los Estados miembros desde el 28 de junio de 2025 para productos y servicios puestos en el mercado a partir de esa fecha, con un periodo transitorio hasta el 28 de junio de 2030 para los que ya estuvieran disponibles previamente.

Este contexto convierte a la jornada en un espacio idóneo para alinear criterios, compartir prácticas verificables y resolver dudas frecuentes sobre alcance, documentación técnica y pruebas de conformidad.

Más allá del marco jurídico, la jornada del Ceapat pone el acento en el impacto. La accesibilidad es un requisito legal, pero sobre todo una obligación social y una oportunidad para mejorar la calidad, la seguridad y la usabilidad de los servicios para toda la ciudadanía.

El diálogo entre administraciones, empresas, expertos y comunidad permite identificar barreras estructurales, compartir soluciones que se puedan replicar y, sobre todo, concretar cómo medir esos avances.

Puedes consultar el programa de las jornadas en el sitio del evento.

Participación en A11yConf 2025 sobre Accesibilidad práctica en SwiftUI

El próximo 29 de noviembre se celebrará una nueva edición de A11yConf, la conferencia de referencia en el mundo hispanohablante dedicada íntegramente a la accesibilidad digital.
El evento reunirá a profesionales del diseño, el desarrollo, la investigación y la comunicación comprometidos con la creación de experiencias digitales inclusivas.
A11yConf es un punto de encuentro fundamental para quienes creemos que la accesibilidad no es un añadido, sino una parte esencial del diseño y desarrollo responsable. Asistir al evento es una oportunidad para aprender de referentes del sector, descubrir nuevas perspectivas y reforzar el compromiso colectivo con la inclusión digital.

Toda la información sobre el programa, los ponentes y las inscripciones están disponible en la web oficial del evento.

Accesibilidad y SwiftUI

En esta edición participaré con una charla práctica sobre la resolución de barreras de accesibilidad en interfaces desarrolladas con SwiftUI. Durante la sesión se mostrarán ejemplos reales y técnicas concretas para la detección y solución de problemas de accesibilidad en aplicaciones para iPhone, iPad, Mac y otros dispositivos del ecosistema Apple.

La ponencia abordará desde los errores más comunes que aparecen en componentes visuales y gestuales hasta estrategias avanzadas para ofrecer una experiencia completa a personas usuarias de VoiceOver, braille y tecnologías de asistencia.

Congreso PyConES 2025 y accesibilidad para Python

Del 17 al 19 de octubre se celebrará en Sevilla una nueva edición de PyConES, la gran conferencia anual de la comunidad Python en España. Tres días intensos repletos de charlas técnicas, talleres, networking y, este año, también un espacio para la accesibilidad digital, un tema que debería ser parte esencial de cualquier evento tecnológico.
PyConES es mucho más que una conferencia técnica. Es un lugar de encuentro donde la comunidad se reúne para aprender, compartir experiencias y construir juntos el futuro del ecosistema Python.
Este año, la ciudad de Sevilla será el escenario perfecto para acoger a desarrolladores, empresas y entusiastas de todo el país (y más allá), en un ambiente abierto y colaborativo.

Accesibilidad en el evento

En el evento participaré con la charla titulada Accesibilidad e interfaces con Python, libres para codificar y libres para usar en la que mostraré técnicas básicas para crear interfaces de usuario con QT y WX que incorporen accesibilidad.

Código de programación más accesible con SIMAE

En el mundo de las tecnologías de apoyo para personas con discapacidad visual, pocas iniciativas resultan tan innovadoras y útiles como SIMAE, el Sistema de Marcado Estructural de Código Fuente para Programadores con Discapacidad Visual. Desarrollado en la UTN Facultad Regional Santa Fe, este proyecto de I+D está pensado para brindar contexto y estructura al código, aumentando la accesibilidad para quienes dependen de lectores de pantalla.

SIMAE nace en 2016, cuando un alumno ciego ingresó en Ingeniería en Sistemas. La necesidad de facilitar su experiencia de aprendizaje motivó a docentes e investigadores a diseñar una herramienta que transformara la forma de programar en algo más accesible.

Su función principal es insertar información contextual en el código fuente, para ello incorpora información extra en la semántica del código. Por ejemplo, se agregan marcadores para señalar el comienzo y fin de bloques buscando ayudar a ubicarse al programador dentro del código; una extensión para VSCode que permite detectar las marcas semánticas en los hints del código y utilizar atajos de teclado especiales para moverse por la estructura del código.

Soporta múltiples lenguajes (C++, Java, Python y también C#) y funciona en español e inglés.

Este proyecto demuestra que las tiflotecnologías pueden elevar significativamente la experiencia de programación para personas con discapacidad visual. Al convertir el código en algo estructurado y navegable —no solo visible—, la herramienta abre caminos hacia una programación más autónoma, inclusiva y eficiente. Su enfoque dual (standalone y extensión) ofrece flexibilidad según el entorno de trabajo del usuario.

Herramientas y Estrategias para Crear Apps Accesibles en Android e iOS

El desarrollo de aplicaciones móviles se ha convertido en una de las áreas más dinámicas e innovadoras de la industria del software. Este sector exige unos tiempos de actualización y publicación de nuevas aplicaciones muy elevado. Esto provoca que, en muchos casos, la accesibilidad sea una de las características perjudicadas en los productos publicados.
Una aplicación puede ser visualmente atractiva, contar con funciones avanzadas y ofrecer un rendimiento impecable, pero si no es usable para personas con discapacidad, estará dejando a un sector de la población fuera de la experiencia digital.

Accesibilidad desde la base del dispositivo

Los sistemas operativos para dispositivos móviles han dado pasos decisivos para que los desarrolladores tengan a su disposición herramientas de accesibilidad integradas desde el inicio. En el caso de Android, TalkBack es el lector de pantalla oficial que permite a los usuarios interactuar con la interfaz mediante gestos y mediante una comunicación por voz o braille, conocer qué aparece en la pantalla del dispositivo. En iOS, VoiceOver cumple esa función con un enfoque similar, basado en gestos multitáctiles y una navegación estructurada similar a la presentada en Android. Estos lectores no solo son esenciales para las personas ciegas, también se convierten en el punto de partida para que cualquier desarrollador entienda cómo se percibe su aplicación sin ver la pantalla.

El reto de desarrollar interfaces de usuario accesibles

Pensar en la interfaz no solo como un conjunto de imágenes y botones visibles, sino como una estructura semántica que se transforma en una experiencia navegable, coherente y predecible mediante voz o braille. Para lograrlo, es fundamental aprovechar correctamente los roles de accesibilidad que ofrecen los frameworks nativos. En SwiftUI, por ejemplo, existen modificadores que permiten etiquetar elementos y proporcionarles un texto descriptivo con accessibilityLabel, agrupar componentes o describir cambios dinámicos en la interfaz para que VoiceOver pueda transmitir toda la información de la pantalla al usuario ciego. En Android, el uso adecuado de contentDescription, AccessibilityNodeInfo y las API de Jetpack Compose garantizan que cada control comunique su función de manera clara a TalkBack.

Pero la accesibilidad no se limita a etiquetas de texto. También implica asegurar que la navegación por gestos sea lógica, que los botones tengan un tamaño adecuado para ser pulsados, que los contrastes de color cumplan los estándares y que las animaciones no generen barreras. Una interfaz sobrecargada de elementos visuales puede ser un obstáculo insuperable si no se acompaña de una estructura semántica que guíe al lector de pantalla.

Probar el producto

Las pruebas son otro aspecto crucial para la accesibilidad. Así como se prueban la usabilidad o el rendimiento, es necesario integrar pruebas de accesibilidad en el ciclo de desarrollo. Probar la aplicación con TalkBack y con VoiceOver no debe ser una tarea secundaria ni un “extra” antes de la publicación, sino un paso constante que permita detectar fallos antes de que lleguen a los usuarios. Existen además validadores automáticos, como Accessibility Scanner en Android o las auditorías de Xcode en iOS, que ayudan a identificar problemas comunes de forma temprana.

La accesibilidad en el equipo

Crear aplicaciones accesibles también implica cambiar la mentalidad del equipo de desarrollo y diseño. No se trata solo de cumplir con normativas como las WCAG, sino de pensar en la diversidad de personas que van a usar la aplicación. Una pantalla que puede parecer intuitiva para alguien que puede ver puede ser confusa si los elementos no están correctamente etiquetados o si el flujo de navegación es poco claro. Del mismo modo, un gesto complejo puede convertirse en una barrera para personas con movilidad reducida o que no puedan intuir el comportamiento necesario para utilizar la aplicación.

El equipo, además, tiene que comprender que la accesibilidad no es una carga, sino una oportunidad. Una app bien diseñada para ser inclusiva no solo beneficia a las personas con discapacidad visual, sino que también mejora la experiencia para otros colectivos: usuarios mayores, personas que utilizan el móvil en condiciones de baja visibilidad o incluso quienes prefieren interactuar con comandos de voz. La accesibilidad amplía el alcance del producto y refuerza la idea de que la tecnología debe estar al servicio de todos.

El reto del desarrollo de aplicaciones móviles accesibles es, en gran parte, un reto de empatía y de calidad. Quienes se enfrenten a él con seriedad descubrirán que las herramientas ya están disponibles y que, con buenas prácticas y compromiso, es posible construir experiencias digitales que no excluyan a nadie. Android y iOS ofrecen la base: depende de los desarrolladores aprovecharla para transformar sus proyectos en aplicaciones verdaderamente universales.

Cómo etiquetar imágenes y componentes visuales en Android con Content Description

En el desarrollo de aplicaciones para Android, la accesibilidad es un aspecto que no puede dejarse de lado. Uno de los errores más comunes en las interfaces de aplicaciones móviles es utilizar iconos o imágenes sin acompañarlos de una descripción accesible. Para los usuarios que dependen de TalkBack u otros lectores de pantalla, estos elementos pueden convertirse en barreras de accesibilidad muy severas si no cuentan con la información adecuada para identificar la funcionalidad de dichos botones o elementos visuales.

La propiedad contentDescription permite añadir una etiqueta textual a cualquier componente visual, de forma que TalkBack la anuncie en lugar de limitarse a leer un nombre técnico como “ic_send” o a ignorar la imagen por completo.

Ejemplo básico en XML

Un caso clásico es un botón con un icono de avión de papel que representa la acción de enviar un mensaje. Visualmente resulta evidente, pero sin descripción accesible no es comprensible para quien no puede ver la pantalla:

<ImageButton
android:id="@+id/sendButton"
android:layout_width="wrap_content"
android:layout_height="wrap_content"
android:src="@drawable/ic_send"
android:contentDescription="Enviar mensaje"
/>

En este ejemplo, TalkBack leerá “Enviar mensaje” al situarse sobre el botón, en lugar de un nombre de archivo técnico.

Ejemplo con Jetpack Compose

En Compose, la accesibilidad se maneja mediante modificadores de semántica. El equivalente a contentDescription sería:

IconButton(
onClick = { /* Acción para enviar */ },
modifier = Modifier.semantics { contentDescription = "Enviar mensaje" }
) {
Icon(
imageVector = Icons.Default.Send,
contentDescription = null // Evitamos redundancia
)
}

En este ejemplo el botón anuncia la etiqueta “Enviar mensaje” al interactuar con TalkBack. El icono interno no necesita contentDescription porque ya se ha definido en el contenedor.

Buenas prácticas

La propiedad contentDescription es sencilla de usar, pero conviene aplicarla con criterio:

  1. Priorizar la función: un icono de engranaje para un botón para ir a los ajustes de la app no debería describirse como “rueda dentada”, sino como “Ajustes”, que es la acción real.
  2. Ser breve y claro: descripciones cortas facilitan la navegación. Un botón que abre un chat debe decir “Abrir chat”, no “Icono de burbuja de diálogo para iniciar conversación”.
  3. Evitar redundancias: si un TextView ya tiene texto visible, no es necesario repetirlo en contentDescription. TalkBack lo leerá automáticamente.
  4. Ocultar lo decorativo: para imágenes que solo son decorativas, se debe establecer android:contentDescription=»@null» en XML o contentDescription = null en Compose. De esta forma TalkBack las ignora.

Etiquetar adecuadamente los componentes visuales no solo es una buena práctica de desarrollo, sino un compromiso con la inclusión digital. Al igual que ocurre con cualquier aspecto del diseño, dedicar unos segundos a escribir una descripción accesible marca la diferencia entre una app usable y otra que excluye a parte de sus usuarios. La propiedad contentDescription es una de las herramientas más simples y a la vez más poderosas que Android pone en manos de los desarrolladores para mejorar la accesibilidad. Añadir una descripción clara y precisa a imágenes e iconos garantiza que los usuarios con lectores de pantalla comprendan e interactúen con la interfaz en igualdad de condiciones.