En Google I/O, la empresa presentó LaMDA como un modelo para generar respuestas dinámicas a las consultas, lo que podrÃa otorgar Google Assistant mejores capacidades de conversación
Revelado en Google I/O, LaMDA es un modelo de lenguaje para aplicaciones de diálogo. Citando las mejoras en la búsqueda y Google Assistant resultados, el CEO de Google, Sundar Pichai, mencionó que a veces los resultados no son tan naturales como podrÃan ser.
“Las respuestas sensatas mantienen las conversaciones en marcha”, dijo Sundar, antes de una demostración de LaMDA.
La idea es una continuación del sistema BERT de Google para comprender el contexto de los términos en una consulta de búsqueda. Al aprender conceptos sobre un tema y en el idioma, puede proporcionar respuestas que suenen más naturales, que pueden fluir en una conversación.
En las demostraciones, LaMDA se usa para demostrar una conversación con Plutón y un avión de papel. Cada modelo de LaMDA mantuvo su propia parte de una conversación con un usuario, incluidas preguntas inocuas como “Dime qué verÃa si lo visitara”, lo que resultó en una descripción del paisaje y los icebergs congelados en la superficie de Plutón.
Google todavÃa está desarrollando LaMDA, y “todavÃa es una investigación temprana”, admite Pichai, y actualmente solo funciona en texto en este momento. Google tiene la intención de hacerlo multimodal, para comprender imágenes y videos junto con el texto.
Eventualmente, esto podrÃa conducir a la Google Assistant cada vez más de naturaleza conversacional para sus usuarios. La investigación también puede impulsar Apple hacia mayores avances con su propio Siri, actualizando su propio asistente virtual con la versión de la empresa de búsqueda y haciéndolo más hablador para los usuarios.