Google+,nueva red social sin novedades en accesibilidad

La empresa Google ha publicado recientemente, en versión beta para pruebas, su nuevo servicio en Internet conocido como Google+, pronunciado como Google más o Google plus.

Este nuevo sitio web de Google quiere ser la red social de esta empresa para competir con otras redes sociales como Facebook. Google+ ofrece diversas funciones para publicar y compartir contenidos entre los usuarios que tengamos entre nuestros círculos sociales. Esta es una de las principales novedades de Google+, mientras que en Facebook y otras redes sociales sólo teníamos amigos, en Google+ podemos tener amigos, conocidos, familiares o cualquier nuevo círculo social que decidamos crear. De esta forma podemos compartir contenidos sólo a ciertos grupos de usuarios que tengamos asociados en nuestros círculos.

Desde Google+ podemos acceder a otros servicios de Google, como GMail, Buzz o Google reader pero, al menos por ahora, estos servicios no se integran en Google+, simplemente se abre una nueva ventana del navegador para acceder al servicio que deseemos. Tampoco hay integración con otras redes sociales como Facebook o Twitter aunque podemos indicar, en nuestro perfil de Google+, que estamos en otras redes sociales. Tampoco hay ningún servicio para buscar o importar contactos de otras redes sociales. Recordemos que Google+ está en versión beta y todo esto puede añadirse, si Google quiere, para la versión final de esta nueva red social.

En la sección para nuestro perfil también podemos introducir información, a parte de nuestros gustos y aficiones, sobre nuestra educación y nuestro trabajo. Esto nos hace suponer que Google también quiere competir con LinkedIn, una red social orientada al ámbito laboral.

Los dispositivos móviles también disfrutarán de una aplicación para conectarse y utilizar algunos de los servicios de Google+. Actualmente sólo existe una versión para Android, el sistema operativo de Google para dispositivos móviles, pero pronto aparecerán versiones para otras plataformas.

La accesibilidad de Google+

El interfaz web de Google+ presenta muchas de las barreras de accesibilidad habituales ya en las redes sociales de la Web 2.0. El uso de Ajax para controlar los contenidos dinámicos y realizar animaciones provocan que algunos lectores de pantalla no puedan acceder de forma cómoda a los contenidos. El foco del lector de pantallas, en algunos formularios, salta sin control del usuario y algunos controles como botones o casillas de verificación no son activables con el lector de pantallas. Existen imágenes sin descripciones alternativas, estas imágenes pueden ser parte del contenido o son los identificadores de algunos enlaces por lo que una persona que no pueda acceder al contenido visual encontrará barreras de accesibilidad importantes. La personalización de colores y tamaños presenta los mismos problemas que otras redes sociales.

Google+ parece que no hará uso de contenidos en Flash aunque el uso de Javascript presenta múltiples problemas. Por ejemplo, hay muchas operaciones basadas en arrastrar y soltar elementos, existen contenidos no interactivos, como textos, que pueden activarse con el ratón y que un producto de apoyo no identifica como elemento activable por lo que el usuario puede confundirse.

El interfaz de la aplicación para Android presenta muchos de sus botones correctamente etiquetados y elementos textuales detectables por los lectores de pantalla para estos dispositivos pero existen contenidos y funciones que resultan inaccesibles para los productos de apoyo de Android.

En conclusión podemos decir que Google+, en cuanto accesibilidad, no aporta nada que no aporten otras redes sociales ya que la accesibilidad parece que no es importante para estos proyectos.

Recordemos que Google+ está en beta y existe un enlace para enviar mejoras y sujerencias a Google pero pocas esperanzas hay en la mejora de accesibilidad cuando el mecanismo para enviar mejoras sobre Google+ presenta barreras de accesibilidad para los productos de apoyo por lo que el envío de sujerencias es confuso y complicado para una persona con discapacidad.

Últimamente Google nos está dando más tristezas que alegrías en sus productos en el tema de la accesibilidad. Desconozco si las razones son la falta de interés, malos profesionales de la accesibilidad en su plantilla, malos análisis de requisitos al no incluir la accesibilidad como requisito de calidad para sus productos o una mezcla de todas estas posibilidades. No es admisible que una empresa tan importante como Google, con una gran trayectoria tecnológica, con grandes productos en el mercado cometa fallos de este tipo y siga cometiendolos.

Convivencia de Windows y MacOS X en hardware de Apple

Apple decidió hace unos años abandonar la arquitectura PowerPc para sus procesadores en favor de los procesadores de la marca Intel. Hubo muchas críticas y opiniones tanto a favor como en contra de esta decisión. No nos centraremos en dichas opiniones sino que nos centraremos en los beneficios que trajo dicha decisión para el mercado de los ordenadores de la manzana mordida, que es como se conoce a Apple a causa de su logotipo.

Mismo procesador para Mac OSX y Windows

Al comenzar a utilizar procesadores Intel en sus ordenadores, Apple abrió el camino a que los usuarios de estos ordenadores pudiesen instalar, de forma nativa, los sistemas operativos de Microsoft, más conocidos como Windows XP, Vista y 7. Esto se debe a que los sistemas operativos dan soporte al mismo fabricante de procesadores. Ya era posible tener en un mismo equipo Mac OSX y Windows instalados en distintas particiones. Esta posibilidad provocó que muchos usuarios de Windows que no se decidían a dar el salto al mundo Mac lo diesen ya que podrían tener su viejo Windows instalado en el caso de que Mac OSX no les convenciese.

Instalación con Boot Camp

La instalación de windows en un equipo Macintosh no era sencilla ya que la gestión de particiones y el arranque del sistema era distinto al de Windows y pocos usuarios del sistema operativo de Microsoft sabían como hacer esta instalación compartida. Apple se hizo eco de las quejas y necesidades de estos potenciales nuevos usuarios y creó un asistente para instalar, de forma muy sencilla, un sistema operativo Windows en un equipo en el que ya haya instalado Mac OSX. Esta herramienta se llama Asistente Boot Camp.

El asistente Boot Camp podemos encontrarlo dentro de la carpeta utilidades que está dentro de la carpeta de aplicaciones de Mac OSX.

El asistente Boot Camp se encarga de crear las particiones, definir el sistema de arranque e, incluso, nos da un mensaje para que introduzcamos el CDRom con la imagen de Windows para instalar y reinicia el equipo para que comience la instalación. Eso si, el proceso de instalación se realizará desde un entorno Windows por lo que todas las características de accesibilidad propias de Mac OSX desaparecerán durante el proceso de instalación y cada vez que utilicemos Windows.

Una vez instalado Windows deberán instalarse los drivers para el Hardware de Macintosh, la propia utilidad Boot Camp se encarga de ello o podemos utilizar el disco DVD que acompaña a nuestro equipo informático en donde se encontrarán todos los drivers necesarios para Windows.

Para poder saltar de un sistema operativo al otro sólo deberemos reiniciar el equipo cambiando la opción de arranque para el sistema operativo. Esto se hace, tanto en Mac OSX como en Windows, utilizando una opción del asistente Boot Camp.

Máquinas virtuales

Pero el asistente Boot Camp no es la única forma de poder tener Windows en nuestro equipo Macintosh. Las aplicaciones de virtualización de sistemas operativos nos permiten instalar casi cualquier sistema operativo dentro de un entorno de ejecución cerrado. De esta forma, no tendremos que reiniciar el equipo para pasar de Mac OSX a Windows, simplemente deberemos arrancar la máquina virtual donde hayamos instalado windows.

Hay diversas opciones para crear máquinas virtuales en Mac OSX pero la más accesible es VMWare Fusion, con un precio inferior a los 70 euros en la mayoría de los tipos de licencias para este software.

El interfaz de VMWare Fusion es muy accesible con VoiceOver aunque hay algunas incompatibilidades con la gestión del ratón que hace VoiceOver pero son solucionables.

Problemas entre productos de apoyo y máquinas virtuales

La máquina virtual accede a casi todo el hardware del equipo anfitrión aunque hay ciertos elementos que VMWare Fusion no gestiona bien. Uno de esos elementos es la tecla de bloqueo de mayúsculas. La razón de esto es que dicha tecla no está pensada para que se mantenga una pulsación sobre ella por lo que VMWare Fusion detecta que el usuario la ha pulsado y transmite a la máquina virtual el evento de pulsación de dicha tecla y presupone que el usuario dejará de pulsarla inmediatamente ya que este es el comportamiento habitual para esta tecla.

Los usuarios ciegos utilizan un producto de apoyo llamado lector de pantallas, el cual, a través de diversos atajos de teclado, permite que el usuario ciego explore e interactúe con el sistema operativo y las aplicaciones en ejecución. Estos atajos de teclado suelen tener una tecla o varias teclas en común, es lo que se denomina hot-key. En el caso de JAWS, uno de los lectores de pantallas más utilizados por las personas ciegas hispanohablantes, esta tecla es la tecla Insert del teclado estándar de Windows o, en el caso de un teclado de un ordenador portátil, se utiliza la tecla bloqueo de mayúsculas. Un teclado de Apple para Mac OSX carece de tecla Insert por lo que estaríamos obligados a utilizar la tecla bloqueo de mayúsculas pero ya hemos indicado que no funciona bien en las máquinas virtuales pero si con Boot Camp.

La solución pasa por redefinir una de las teclas repetidas de nuestro teclado de Apple para que realice otra función, por ejemplo, la de la tecla Insert de Windows. Pero esto lo veremos en otro artículo de este blog.

mapas, ciegos y pantallas táctiles

Las personas para orientarse y conocer su entorno han utilizado una herramienta muy antigua: el mapa. Mapas hay de diversos tipos: de itinerario, geográfico, topográfico, etc. Pero el mapa ha sido una herramienta lejana para las personas ciegas o baja visión al tratarse de una herramienta principalmente visual.

Con la llegada de Internet, tecnologías de geoposicionamiento y las tecnologías móviles las personas pueden disfrutar de mecanismos de búsqueda y orientación muy eficaces. Incluso las personas ciegas y baja visión pueden utilizar dispositivos específicos para su perfil de discapacidad que les permiten acceder a ciertos servicios de geolocalización. Pero el mapa sigue siendo inaccesible para ellos.

El mapa sigue siendo la herramienta más utilizada para orientarse y con la llegada de los dispositivos móviles con conexión a Internet esto es más evidente. Los teléfonos inteligentes, o smartphones, con receptor GPS y conexión a Internet utilizan servicios de mapas en tiempo real como los que ofrece Google y su Googlemaps para mostrar al usuario un mapa de la zona en la que se encuentra e información sobre puntos de interés. Pero estos mapas son, a nivel técnico, imágenes mostradas por pantalla por lo que una persona ciega no podrá acceder a la información a través de su lector de pantallas.

Existen mapas en relieve de ciertas ciudades, edificios y demás pero este tipo de adaptaciones son muy costosas y pesadas por lo que son poco útiles como herramientas de orientación en la calle o en el destino final. Además, la escala del mapa, al tratarse de un relieve, se pierde detalle a la hora de tratar líneas delgadas o indicar puntos precisos.

Pero como viene siendo habitual, la tecnología nos viene a dar la solución del problema de la inaccesibilidad de los mapas visuales. Las pantallas táctiles han demostrado ser una solución eficaz para que las personas ciegas exploren e interactúen con interfaces visuales en dispositivos móviles. Pues la solución pasa por dotar al gráfico del mapa de cierta interactividad con el lector de pantallas. Esto mismo hace la aplicación para iPhone llamada Ariadne GPS. Esta aplicación es simple en sus servicios pero demuestra gran calidad al ofrecer un interfaz completamente accesible para las personas ciegas.

Con Ariadne GPS una persona ciega puede saber en qué calle se encuentra o cuánto le falta para llegar a un punto de su interés. Pero la característica más interesante de esta aplicación es que podemos acceder a un mapa de la zona en la que nos encontramos, o de una dirección dada, y explorarla visualmente o con VoiceOver, el lector de pantallas para iPhone e iPad. Una persona ciega, arrastrando su dedo por la pantalla poco a poco, podrá reconocer el nombre de las calles que tiene a su alrededor así como el número de la casa o edificio. De esta forma, podemos hacernos una idea del lugar, dirección y distancia de la calle que buscamos. Además, la interfaz está traducida al español.

El método de exploración del mapa a través de los dedos, al principio, es algo confuso ya que la respuesta del lector de pantallas no es del todo inmediata y podemos desorientarnos un poco en el mapa. Además, la orientación del dispositivo también afecta ya que si nos giramos en la calle, el mapa girará con nosotros para que nos orientemos mejor.

La aplicación nos permite guardar nuestros sitios de interés pero no ofrece sitios de interés ya contenidos en bases de datos como las de Googlemaps. Esperemos que en nuevas versiones se incorporen estas características y se pulan algunos detalles de la misma. De todas formas, podemos utilizar aplicaciones de búsqueda de puntos de interés para la plataforma del iPhone, como es la aplicación gratuita AroundMe que nos permite localizar restaurantes, bares, farmacias y demás cercanos a nuestra posición y podemos usar Ariadne una vez que sepamos el nombre de la calle y número de edificio del sitio o comercio al que deseamos ir.

Podemos encontrar Ariadne GPS en la App store por un precio de unos $3, un poco más de 2 euros.

Recordemos que la tecnología GPS no es precisa y que podemos tener una posición errónea por un error de localización de varios metros por lo que debemos tomar todas las precauciones posibles a la hora de utilizar cualquier aplicación de geoposicionamiento.

Aunque la experiencia de explorar un mapa a través de arrastrar los dedos por una superficie sin relieve puede resultar confusa al principio, nos encontramos con otro uso interesante de la pantalla táctil como interfaz de entrada y salida accesible para personas ciegas y baja visión.

Introducción a VoiceOver para iOS

Con motivo del traslado de mi viejo blog de programar a ciegas a este nuevo y las continuas novedades en accesibilidad de iOS, el sistema operativo de Apple para dispositivos móviles, he decidido retomar la serie de artículos sobre cómo utilizar VoiceOver en un iPhone, iPad o iPod touch.

Sirva este artículo como introducción para esta nueva serie en este blog.

Activando voiceOver

Actualmente, por defecto, voiceOver viene desactivado. Puede ser activado gracias a un usuario no ciego entrando en Ajustes/general/accesibilidad/voiceOver. Apple ha añadido un método para activar VoiceOver de forma remota, para hacer esto es necesario enchufar el iPhone a un ordenador con iTunes 8.2 o superior y desde allí activar las características de accesibilidad del teléfono de forma remota.

Apple, en la versión 5 de iOS, el sistema operativo para dispositivos móviles de esta empresa, ha asignado por defecto a la función triple inicio la opción de VoiceOver. Esto implica que, cualquier nuevo usuario de iPhone puede sacar su dispositivo de la caja, encenderlo y pulsar 3 veces consecutivas el botón físico de la parte frontal del dispositivo, que se denomina botón de inicio, y VoiceOver se activará hablando en el idioma apropiado.

Navegando por el interfaz con voiceOver

Con voiceOver activado muchos de los gestos propios de iPhone se modifican o desactivan para que no aparezcan conflictos de funcionamiento con voiceOver. Gestos
como el zoom, el click simple o el deslizamiento relativo no funcionan. pero voiceOver aporta alternativas para estas funciones. Pero estos gestos no son obligatorios para utilizar el iPhone con voiceOver. El lector de pantallas nos permite explorar la pantalla de nuestro teléfono simplemente moviendo el dedo por ella. VoiceOver verbalizará el elemento que esté bajo el ratón y dirá su estado y qué tipo de control es. Este método de navegación es útil para recorrer rápidamente zonas de la pantalla o ir a sitios determinados de ella. Por ejemplo, en un teléfono symbian, si estamos al principio de un menú y queremos ir al último elemento tenemos que recorrer todas las opciones, con voiceOver podemos ir a la esquina inferior derecha con el dedo y voiceOver buscará qué hay ahí.

Pero este no es el único método para navegar por el interfaz del iPhone. Podemos hacer movimientos rápidos deslizando el dedo hacia la derecha o la izquierda haciendo pequeñas caricias en la pantalla (flick) y saltaremos hacia adelante o hacia atrás entre los controles a semejanza de la tecla Tab en Windows, Linux o Mac OSX. De esta forma podemos recorrer todos los controles de una ventana sin tener que buscarlos con el dedo. Moviendo el dedo hacia la derecha avanzamos y hacia la izquierda retrocedemos.

Ambos métodos se pueden aplicar a la hora de utilizar el teclado virtual para escribir textos. Podemos buscar cada letra moviendo el dedo por la pantalla o saltar de atrás a adelante con los gestos de avance o retroceso. Por ejemplo, si estamos en la letra F, si avanzamos pasaremos a la G y así hasta llegar a la L. Si seguimos avanzando pasaremos a la tecla de mayúsculas y luego a la tecla Z. Combinando ambos métodos podemos alcanzar una buena velocidad de tecleo. Por ejemplo, si estamos en la tecla M y queremos escribir una letra E, subimos con el dedo hacia arriba hasta encontrar una letra de la fila qwertyuiop y luego nos movemos a la izquierda hasta la tecla E.

El rotor

El rotor nos permite movernos entre elementos semánticos de forma más rápida. Algunos de estos elementos son caracteres, palabras, encabezados, enlaces visitados, enlaces por visitar, etc. De esta forma podemos saltar entre elementos semánticamente homogéneos de forma rápida. Para hacer estos saltos se utiliza el mismo gesto que para avanzar y retroceder entre controles pero en lugar de izquierda a derecha es de arriba a abajo.

Para seleccionar un elemento semántico hay que usar el denominado rotor. e llama así porque se asemeja a recorrer un círculo de dial para seleccionar un elemento. Para hacer esto debemos poner un dedo donde queramos, preferiblemente en el centro de la pantalla, y sin moverlo debemos hacer un circulo con otro dedo describiendo un círculo. De esta forma buscamos el elemento que deseemos seleccionar. Este gesto se asemeja al que se hace para subir o bajar el volumen en un iPod o moverse por los menús siguiendo una rueda de selección.

Más gestos, más funciones

Existen más gestos asociados a funciones de automatización de lectura, activación/desactivación de la voz, modo de intimidad (apagando la pantalla del iPhone para que nadie vea qué hacemos) y muchas más funciones. Pero lo básico está expuesto en este artículo.

Hola mundo en AppleScript al detalle

Un script de AppleScript es un conjunto de órdenes que siguen una gramática definida por el lenguaje y se ejecuta de forma ordenada empezando por arriba del script y terminando por abajo.

Este lenguaje de programación posee similitudes con otros lenguajes de programación para poder crear scripts más complejos. Podemos crear estructuras repetitivas, ejecutar ciertos comandos dependiendo de condiciones, almacenar y manipular información etc.

Analizando el código fuente

Vamos a analizar paso a paso el código fuente de un script de ejemplo Hola mundo, el cual, hemos visto en otro artículo de este blog. El código es el siguiente:


(*
Ejemplo 1:
Hola Mundo
*)
on run
say "Hola mundo!"
end run

Comentarios en AppleScript

Al principio del script encontramos esta estructura:


(*
Ejemplo 1:
Hola Mundo
*)

Esta es una estructura de comentario, en el código de las aplicaciones, sean scripts o aplicaciones compiladas, se introducen mecanismos para proporcionar comentarios y anotaciones para el programador, de esta forma puede detallar qué hacen ciertas partes del código del programa para refrescar la memoria por si vuelve a esa zona del código pasado un tiempo u otro programador accede al código de la aplicación.

En AppleScript se puede comentar un trozo de código utilizando los operadores (* (abre paréntesis seguido de asterísco) y *) (asterisco seguido de cierra paréntesis). Todo lo que esté entre estos dos operadores será ignorado por el intérprete de AppleScript a la hora de que el script sea ejecutado.

Zonas de ejecución

Siguiendo con el código del ejemplo nos encontramos una estructura que comienza por on run y termina con end run. El comando on nos permite definir un trozo de código que será ejecutado cuando suceda algo específico. En nuestro caso, la sentencia on espera al evento run que tiene lugar nada más comienza a interpretarse el script.

El comando end se utiliza para indicar el final de una estructura. Puede ser una estructura on, una estructura condicional, un bucle, etc. Veremos más ejemplos más adelante.

Haciendo hablar a nuestro script

Por último, sólo nos queda la sentencia say "Hola mundo!" Esta sentencia se compone del comando say y una cadena de texto, encerrada entre comillas («»).

El comando say verbalizará lo que haya a su derecha utilizando la voz del sistema. Puede modificarse su comportamiento pero esto lo veremos más adelante.

Complicando el ejemplo

El ejemplo anterior es muy simple ya que utiliza la configuración por defecto del sistema. El utilizar el comando say puede crear conflictos con otros métodos de verbalización de información. Por ejemplo, VoiceOver, el lector de pantallas de Mac OSX utilizados por los usuarios ciegos, puede sufrir problemas de tartamudeo o colapso en la voz si se usan demasiadas sentencias say consecutivas. Una forma de solucionar esto es hacer que la propia aplicación VoiceOver sea la que hable en lugar de que hable el sistema. Además, esto permitirá que se use la voz personalizada por el usuario de VoiceOver en lugar de la personalización del sistema. Para hacer esto debemos saber si el usuario está ejecutando VoiceOver y, si es así, usar las funciones de VoiceOver, si no es así deberemos seguir utilizando el comando say ya que no hay peligro de conflictos con los servicios de síntesis de voz.

El código de nuestro script sería el siguiente:


(*
Ejemplo 2:
Hola Mundo con VoiceOver
*)
on run
say "Hola mundo"
tell application "VoiceOver"
output " desde VoiceOver!"
end tell
end run

Al ejecutar el script escucharemos, con la voz del sistema, el texto Hola mundo y, los usuarios que tengan VoiceOver activado además escucharán el texto desde VoiceOver con la voz que tengan configurada en su lector de pantallas.

Si comparamos los dos scripts veremos que lo nuevo se concentra en el siguiente trozo de código:


tell application "VoiceOver"
output " desde VoiceOver!"
end tell

El comando tell hace que nuestro script se comunique con una aplicación para utilizar sus funciones. En nuestro caso se comunica con la aplicación VoiceOver. Una vez comunicados con VoiceOver podemos utilizar varios comandos AppleScript que VoiceOver nos proporciona, entre ellos, tenemos el comando output que nos permite utilizar los canales de salida de VoiceOver, los cuales pueden ser la voz sintética, la línea braille conectada al equipo y el sistema de subtítulos de VoiceOver.

A algunos usuarios de VoiceOver no les funcionará el anterior script debido a que tienen desactivado el soporte de script de VoiceOver por lo que al solicitar desde un script de AppleScript que VoiceOver nos ceda el control, se devolverá un mensaje de error. En un próximo artículo veremos cómo solucionar esto.

Iniciación a AppleScript

Apple incluye dentro de su sistema operativo para ordenadores de escritorio y portátiles un lenguaje de scripts conocido como AppleScript. Este lenguaje nos permite crear tareas y pequeños programas para automatizar rutinas o mejorar el funcionamiento de algunas aplicaciones.

En la documentación de AppleScript podemos encontrar el siguiente texto descriptivo:

AppleScript es un potente y versátil lenguaje para la creación de scripts que se incluye en Mac OS X. Puede utilizar AppleScript para crear funciones rápidas, automatizar tareas repetitivas o incluso crear aplicaciones personalizadas que le ahorren gran cantidad de tiempo. AppleScript le permite controlar las aplicaciones que admiten el uso de scripts.

Un script de AppleScript consiste en una serie de comandos en inglés que realizan acciones sobre objetos. Ejemplos de acciones: open, close, get the name of (es decir, abrir, cerrar, obtener el nombre de). Los objetos pueden ser, por ejemplo, una aplicación, una ventana o un ajuste de preferencias.

Un script puede controlar una o más aplicaciones. Para que una aplicación permita el uso de scripts, debe definir los términos que se pueden emplear en los scripts. Mac OS X incluye varias aplicaciones que aceptan scripts.

Herramientas para desarrollar en AppleScript

Mac OSX incluye una aplicación para editar, compilar y depurar los scripts que desarrollemos. Esta aplicación se llama Editor AppleScript. En la documentación de la aplicación encontramos la siguiente definición:

Editor AppleScript es una aplicación para crear scripts muy fácil de utilizar que permite leer, escribir, grabar y guardar scripts de AppleScript.

Estas son algunas características de Editor AppleScript:

  • Ofrece una interfaz unificada y fácil de usar
  • Le permite buscar y reemplazar en el texto del script
  • Realiza un ajuste automático de las sentencias de gran longitud
  • Le permite deshacer varias acciones
  • Ofrece scripts de menú de función rápida para agilizar la redacción de scripts
  • Ofrece soporte para los servicios de las aplicaciones
  • Le permite acceder a scripts de aplicación mediante la paleta Biblioteca.
  • Ofrece un Asistente para Scripts que le ayuda a completar las sentencias
  • Ofrece el historial de resultados y el historial de registro de eventos para que pueda examinar qué ocurre en un script

Editor AppleScript está incluido en Mac OSX. Está situado en la carpeta Utilidades, de la carpeta Aplicaciones del disco duro.

Conceptos básicos de AppleScript

Cuando se ejecuta un script, AppleScript envía eventos Apple al sistema o a las aplicaciones que llevan a cabo los comandos. Estos eventos Apple son mensajes enviados a objetos del sistema o de aplicaciones instaladas en el sistema. Las aplicaciones o el sistema devolverán un resultado al script. Por ejemplo, si un script envía una petición a una aplicación para obtener el nombre de un objeto, la aplicación devuelve el nombre o un mensaje de error si no pudo realizar la petición.

No es necesario conocer los eventos Apple en profundidad ya que el editor AppleScript y sus funciones nos simplifican la tarea.

Applets

Un script que se guarda como aplicación se llama «aplicación AppleScript» o «applet». Los applets se ejecutan automáticamente al abrirse y realizan los comandos del script. Los applets pueden estar formados por solo un par de comandos, o ser aplicaciones más complejas.

Los applets pueden guardarse como editables o como solo ejecutables. Un applet editable sigue conteniendo el texto del script, por lo que puede editarse y volver a compilarse en cualquier momento.
Al guarda un script como solo ejecutable, la parte de texto editable se elimina y el archivo ya no puede modificarse ni volver a compilarse.

Ejemplo simple

Vamos a realizar la primera aplicación que todo desarrollador hace al aprender un lenguaje de programación, el conocido Hola mundo!. Abre el editor AppleScript y pega el siguiente código de ejemplo:


(*
Ejemplo 1:
Hola Mundo
*)
on run
say "Hola mundo!"
end run

Ahora ejecuta nuestro script bien pulsando la combinación Comando+R o usando la opción Ejecutar del menú Script del editor AppleScript. El sistema verbalizará el mensaje Hola mundo! utilizando la voz del sistema.