Apple está previsualizando varios iOS 17 funciones que se centran en mejorar el habla, la visión y la accesibilidad cognitiva en iPhones y iPads. Entre las mejoras se encuentran la generación de voz personal basada en inteligencia artificial y texto a voz, que se espera que se implementen junto con Assistive Access a finales de este año.
Apple continúa basándose en las funciones de accesibilidad existentes e introduce nuevas capacidades simultáneamente. Tanto Live Speech como Assistive Access son funciones completamente nuevas, mientras que Point and Speak es una actualización de AppleLa aplicación Lupa incorporada que también recibió Detección de Puerta en iOS 16 el año pasado.
Live Speech y la generación de voz llegan a iOS 17
La función Live Speech es la versión de texto a voz del fabricante del iPhone que se integrará en FaceTime y en las llamadas telefónicas habituales. Apple afirma que los usuarios pueden escribir texto y la función lo leerá en voz alta a la persona o grupo con el que están en la llamada. Apple afirmó que llegará a iPhones, iPad, Mac y MacBooks.
Mientras tanto, la otra funcionalidad relacionada con el habla es Personal Voice, que se basa en el aprendizaje automático en el dispositivo en particular. Permite a los usuarios crear o sintetizar su voz leyendo textos solicitados para 15 minutos. Esto será útil para quienes corren el riesgo de perder la voz debido a afecciones como la ELA o la esclerosis lateral amiotrófica. La tecnología detrás de esto se parece AmazonLa generación de voz con IA que se anunció el año pasado.
El acceso asistido simplifica la Apple experiencia de aplicación
AppleEl nuevo Assistive Access de proporciona una experiencia de aplicación personalizada. En lugar de ampliar los controles y las opciones de entrada a las aplicaciones, la función simplifica el uso de estas aplicaciones para personas mayores y personas con discapacidades cognitivas y visuales al ofrecer botones y texto ampliados. Admite aplicaciones como la cámara principal, mensajes y teléfono, así como Apple Música y fotografías.
La lupa consigue apuntar y hablar
Además de detectar personas, puertas y leer descripciones de imágenes, la lupa de los iPhone ahora puede identificar más objetos mediante Point and Speak. Esta función debería proporcionar una mejor ayuda a las personas con discapacidad visual. Funciona con etiquetas cortas que se encuentran en los electrodomésticos. Por ejemplo, un usuario puede señalar un botón de un microondas y la aplicación leerá dicho texto.
También hay otras actualizaciones y funciones relacionadas con la accesibilidad. Para aquellos que tienen discapacidades motoras, Apple’s Switch El control convertirá un interruptor en un controlador de juego virtual. Además, Apple mencionó que los accesorios para audífonos fabricados para iPhone ahora serán compatibles con dispositivos Mac. Tanto Voice Control como Voice Over a través de Siri recibirán sugerencias fonéticas y personalizaciones de velocidad, respectivamente.
Apple no confirmó si todas estas mejoras debutarán en iOS 17 o por separado como una actualización menor dentro de la próxima iteración del software. Del mismo modo, queremos saber qué funciones le resultan más útiles.