News

6/recent/ticker-posts

Intro Slider

Las nuevas funciones de accesibilidad que llegarán a los smartphones con iOS o Android en los próximos meses

La tecnología no solo no tiene por qué hacer más complicado el día a día a las personas con discapacidad, sino que además puede utilizarse para eliminar algunas de las dificultades que suelen encontrarse en el mundo físico.

Este es precisamente el propósito de las funciones de accesibilidad, que cada vez tienen una mayor presencia en los principales sistemas operativos móviles, como es el caso de iOS y Android.

En los últimos días, tanto Google como Apple han anunciado nuevas funciones de accesibilidad para sus sistemas móviles con las que buscan que su hardware, software y la Inteligencia Artificial (IA) puedan ayudar a las personas con algún tipo de discapacidad.

A continuación se recogen algunas de las novedades más destacadas que irán incorporándose al catálogo de accesibilidad de los sistemas móviles.

Detección de puertas (iOS)

Para asistir a las personas ciegas o con poca visión, una de las funciones desarrolladas por Apple para iOS es la detección de puertas, con la que se facilita la movilidad, como explicó la empresa estadounidense en un comunicado.

Cuando el usuario llega a un lugar nuevo, puede usar su móvil para conocer dónde está la puerta más cercana y a qué distancia se encuentra. La función da más datos sobre la puerta y qué hacer para utilizarla, como si está abierta o cerrada, o si se abre al empujarla, tiene una manivela o un pulsador que apretar.

Con la detección de puertas de iOS los usuarios también pueden leer signos en la puerta o a su alrededor, como números o carteles, o si hay presente algún símbolo de entrada accesible.

Para su funcionamiento emplea la cámara y el sensor LiDAR presente en los modelos más recientes, pero también características de aprendizaje automático disponibles en los dispositivos más recientes. 

La detección de puertas opera a través de la app Lupa (Magnifier) de Apple, y como requisito es necesario disponer de uno de los modelos más actuales de iPhone y iPad con sensor LiDAR. Apple estima que estará disponible este año.

Descripciones automáticas de imágenes (Android)

A través de la aplicación Visión asistida (Lookout, en inglés), lanzada originalmente en 2019, Google también ha incorporado nuevas funciones de accesibilidad en los móviles con sistema Android. Esta app hace posible que los usuarios utilicen la cámara del móvil para leer en voz alta un texto escrito.

A partir del 2 de junio, la versión beta de Visión asistida ganará una nueva función con la que permitirá usar un nuevo modo explorar, con el que trata de describir el entorno del usuario o una imagen.

Aunque las descripciones no pueden llegar al detalle de un ser humano, sí pueden identificar animales y personas, describir su ropa y si son adultos o jóvenes. El procesamiento de las fotos tiene lugar desde el propio dispositivo.

Transcripciones para el audio (iOS y Android)

Las transcripciones en tiempo real son otra de las funciones de accesibilidad más extendidas, y hacen posible conocer el contenido de un archivo sonoro a las personas sordas o con alguna discapacidad de audición.

En la actualidad son varios los móviles con sistema a partir de Android 10 que ya pueden utilizar las transcripciones en tiempo real para conocer lo que se dice en un archivo de audio o en una videollamada, por ejemplo.

Apple también se sumará a esta lista y sus sistemas iOS, iPadOS y macOS podrán acceder a las transcripciones de texto en tiempo real. Esta función llegará este año al ecosistema de la marca.

Con esto, se puede personalizar el tamaño de fuente e identificar a las diferentes personas que hablan. También es posible escribir texto para responder en voz alta a los demás durante una conversación, y es una función que opera sin salir del dispositivo.

Ver la pantalla del Apple Watch desde el móvil (iOS)

Las personas con alguna discapacidad motora pueden tener dificultades a la hora de controlar con las manos los relojes inteligentes Apple Watch y sus pequeñas pantallas.

Por ello, Apple prepara una nueva función con la que es posible duplicar la pantalla de un reloj Apple Watch en un móvil iPhone, de manera que les resulte posible controlar el smartwatch de forma remota usando controles de voz.

Así, los usuarios pueden conocer datos medidos por sus relojes Apple Watch pero desde el móvil, como es el caso de los datos de oxígeno en sangre, la frecuencia cardiaca o las aplicaciones de mindfulness.

Reconocimiento de sonidos personalizados (iOS y Android)

Y otra de las novedades de accesibilidad de los smartphones actuales es el reconocimiento de sonidos personalizados, que han anunciado recientemente tanto Google como Apple.

En el caso de iOS, donde la novedad llegará este año, los usuarios pueden configurar su dispositivo para que detecte ciertos sonidos y alerte al usuario, en especial, a personas con discapacidad auditiva cuando suena una alarma, un timbre o un electrodoméstico.

Publicar un comentario

0 Comentarios