Smartphones, chats de video para presentar subtítulos en tiempo real

Smartphones, chats de video para presentar subtítulos en tiempo real
5 (100%) 1 voto

Aquellos de nosotros que podemos entender que los subtítulos de video son una bendición para las personas con problemas de audición. Algunas herramientas de subtítulos, como la de YouTube, incluso use tecnología de reconocimiento de voz y algoritmos de aprendizaje automático para crear subtítulos para videos. Sin embargo, los resultados no siempre son precisos. Incluso Google admite que las pronunciaciones erróneas, los acentos, los dialectos y el ruido de fondo pueden reducir la efectividad de los subtítulos.

Dimitri Kanevsky, cient√≠fico investigador de Google, que utiliza una herramienta llamada traducci√≥n en tiempo real de comunicaci√≥n, o CART. Este servicio en l√≠nea tiene un subt√≠tulo que escucha y transcribe de forma remota todas las palabras en la sala, y la transcripci√≥n aparece en la pantalla de su computadora port√°til. Pero servicios como CART est√°n basados ‚Äč‚Äčen suscripci√≥n y son caros.

Para hacer que tales tecnolog√≠as est√©n disponibles para usuarios como Dimitri en smartphones y aplicaciones, las compa√Ī√≠as tecnol√≥gicas est√°n incursionando en subt√≠tulos en vivo que transcriben el discurso en tiempo real.

La próxima versión de Android, por su parte, tendrá una función opcional de subtítulos en vivo que transcribirá la salida de audio en cualquier video reproducido por el usuario en tiempo real. No se limitará a YouTube y funcionará en aplicaciones de redes sociales, podcasts, películas fuera de línea e incluso en chats de video en vivo.

Los subtítulos se generarán utilizando las herramientas de aprendizaje automático, por lo que funcionarán incluso si el usuario está desconectado. Los subtítulos en vivo en Android Q funcionarán incluso cuando el audio del teléfono esté apagado y los usuarios también podrán guardar las transcripciones de los subtítulos.

Recomendamos:
Jakdojada ahora muestra retrasos en el autob√ļs y le permite rastrear el veh√≠culo antes de que llegue a la parada de autob√ļs.

Adem√°s de YouTube, los subt√≠tulos en vivo ahora tambi√©n funcionan para Google Slides. La investigaci√≥n en Google tambi√©n ha lanzado una aplicaci√≥n experimental llamada Live Transcribe. Desarrollado en colaboraci√≥n con la Universidad Gallaudet, un instituto l√≠der en los Estados Unidos para personas con problemas de audici√≥n. Cuando se activa, la aplicaci√≥n puede transcribir cualquier sonido y voz y mostrarlo en la pantalla en tiempo real. Encontramos los resultados bastante inexactos e insensibles, pero a√ļn est√° en sus primeras etapas y hay margen de mejora. Sin duda, Microsoft ya ha publicado subt√≠tulos y subt√≠tulos en vivo con tecnolog√≠a de IA Skype, lo que permite a los usuarios leer la conversaci√≥n en un desplazamiento autom√°tico mientras hablan por tel√©fono.

Microsoft también está trabajando en subtítulos en 20 idiomas, lo que permitirá a los usuarios comprender lo que la otra persona está diciendo en el idioma de su elección. El subtítulo en vivo también funciona para presentaciones de PowerPoint.

Ofreciendo subtítulos en vivo, ya sea en la nube como en el caso de Skype Q, requerirá mucha potencia computacional. Es una de las razones por las cuales la función de subtítulos en vivo se limitará a los modelos de gama alta. La precisión de las traducciones también dependerá de la pronunciación de los usuarios y la eficiencia de los algoritmos de aprendizaje automático. Los resultados pueden ser inconsistentes al principio, pero con el tiempo, se convertirán en una de las herramientas más poderosas para las personas con problemas de audición.