Google Assistant la investigación podría hacer que las consultas sean más conversacionales

En Google I/O, la empresa presentó LaMDA como un modelo para generar respuestas dinámicas a las consultas, lo que podría otorgar Google Assistant mejores capacidades de conversación

Revelado en Google I/O, LaMDA es un modelo de lenguaje para aplicaciones de diálogo. Citando las mejoras en la búsqueda y Google Assistant resultados, el CEO de Google, Sundar Pichai, mencionó que a veces los resultados no son tan naturales como podrían ser.

  

“Las respuestas sensatas mantienen las conversaciones en marcha”, dijo Sundar, antes de una demostración de LaMDA.

La idea es una continuación del sistema BERT de Google para comprender el contexto de los términos en una consulta de búsqueda. Al aprender conceptos sobre un tema y en el idioma, puede proporcionar respuestas que suenen más naturales, que pueden fluir en una conversación.

En las demostraciones, LaMDA se usa para demostrar una conversación con Plutón y un avión de papel. Cada modelo de LaMDA mantuvo su propia parte de una conversación con un usuario, incluidas preguntas inocuas como “Dime qué vería si lo visitara”, lo que resultó en una descripción del paisaje y los icebergs congelados en la superficie de Plutón.

Google todavía está desarrollando LaMDA, y “todavía es una investigación temprana”, admite Pichai, y actualmente solo funciona en texto en este momento. Google tiene la intención de hacerlo multimodal, para comprender imágenes y videos junto con el texto.

Eventualmente, esto podría conducir a la Google Assistant cada vez más de naturaleza conversacional para sus usuarios. La investigación también puede impulsar Apple hacia mayores avances con su propio Siri, actualizando su propio asistente virtual con la versión de la empresa de búsqueda y haciéndolo más hablador para los usuarios.