Future HomePod solo puede responder consultas de Siri si lo miras

Apple Es posible que los usuarios de dispositivos no tengan que indicar “Hey Siri” para invocar al asistente digital, con Apple buscando formas de utilizar la detección de mirada para activar automáticamente el control verbal de un dispositivo, sin necesidad de una indicación vocal.

Propietarios de varios dispositivos en el Apple El ecosistema estará familiarizado con uno de los problemas menos conocidos del uso de Siri, es decir, lograr que funcione en un dispositivo y no en otro. Cuando se encuentra en una habitación que contiene un iPhone, un iPad y un HomePod mini, puede ser difícil determinar qué dispositivo responderá realmente a una consulta, y puede que no sea necesariamente el dispositivo deseado.

Además, no todo el mundo se siente cómodo con el mensaje “Hey Siri” que se utiliza en absoluto. Por ejemplo, los usos erróneos de “Hey Siri” y las frases de activación de otros asistentes digitales en la televisión y la radio pueden hacer que se realicen consultas que los usuarios tal vez no deseen.

  

También existe la posibilidad de que los usuarios necesiten interactuar con dispositivos sin usar su voz en absoluto. En situaciones en las que es posible que sea necesario emitir un comando al hardware a distancia, es posible que no sea posible utilizar el esquema de control auditivo u otro mecanismo de control.

En una patente concedida por la Oficina de Patentes y Marcas de EE. UU. El martes titulada “Control de dispositivos utilizando información de la mirada”, Apple sugiere que puede ser posible utilizar la mirada de un usuario para determinar si desea ayuda de Siri u otro sistema, sin requerir la indicación verbal inicial.

La presentación sugiere un sistema que utiliza cámaras y otros sensores capaces de determinar la ubicación de un usuario y la ruta de su mirada, para determinar lo que está mirando. Esta información podría usarse para configurar automáticamente el dispositivo observado para que entre en un modo de aceptación de instrucciones en el que escuche activamente, con la expectativa de que se le digan las instrucciones.

Si el asistente digital interpreta lo que podría ser un comando en este estado, entonces puede ejecutarlo como si el disparador verbal se hubiera dicho de antemano, salvando a los usuarios de un paso. Esto aún permitiría que funcionen frases como “Hey Siri”, especialmente cuando el usuario no está mirando el dispositivo.

Usar la mirada como barómetro para saber si el usuario quiere decirle al asistente digital un comando también es útil de otras maneras. Por ejemplo, la mirada detectada al mirar el dispositivo podría indicar la intención del usuario de que el dispositivo debe seguir las instrucciones.

Un asistente digital para un HomePod podría potencialmente interpretar un comando solo si el usuario lo está mirando, sugiere la patente.

En términos prácticos, esto podría significar la diferencia entre el dispositivo que interpreta un fragmento de oración como “jugar a Elvis” como un comando o como parte de una conversación que de otra manera debería ignorar.

Para los propietarios de varios dispositivos, la detección de la mirada podría permitir que se le diera una instrucción a un dispositivo y no a otros, que se destacan al mirarlo.

La presentación menciona que simplemente mirar el dispositivo no necesariamente se registrará como una intención para que escuche instrucciones, ya que se debe cumplir un conjunto de “criterios de activación”. Esto podría consistir simplemente en una mirada continua durante un período de tiempo, como un segundo, para eliminar miradas menores o falsos positivos de una persona que gira la cabeza.

El ángulo de la posición de la cabeza también es importante. Por ejemplo, si el dispositivo está ubicado en una mesita de noche y el usuario está acostado en la cama dormido, el dispositivo podría potencialmente contar al usuario frente al dispositivo como una mirada dependiendo de cómo miente, pero podría descartarlo como tal por darse cuenta del usuario. la cabeza está de lado en lugar de vertical.

En respuesta, un dispositivo podría proporcionar una serie de indicadores al usuario de que el asistente se ha activado con una mirada, como un ruido o un patrón de luz de los LED incorporados o una pantalla.

Dada la capacidad de registrar la mirada de un usuario, también sería factible que el sistema detecte si el usuario está mirando un objeto con el que desea interactuar, en lugar del dispositivo que sostiene el asistente virtual. Por ejemplo, un usuario podría estar mirando una de las múltiples lámparas en la habitación, y el dispositivo podría usar el contexto de la mirada del usuario para determinar qué lámpara quiere que se encienda con un comando.

Los dispositivos cercanos podrían detectar la mirada del usuario de otros objetos controlables en una habitación.

Los dispositivos cercanos podrían detectar la mirada del usuario de otros objetos controlables en una habitación.

Presentada originalmente el 28 de agosto de 2019, la patente enumera a sus inventores como Sean B. Kelly, Felipe Bacim De Araujo E Silva y Karlin Y. Bark.

Apple presenta numerosas solicitudes de patente semanalmente, pero si bien la existencia de una patente indica áreas de interés para sus esfuerzos de investigación y desarrollo, no garantizan que la patente se utilizará en un producto o servicio futuro.

La capacidad de operar un dispositivo de forma remota ha surgido en presentaciones de patentes anteriores varias veces. Por ejemplo, una patente de 2015 para una “estimación basada en el aprendizaje de la postura de la mano y el dedo” sugirió el uso de un sistema de mapeo óptico en 3D para los gestos de las manos, uno que podría ser similar en concepto al hardware Kinect de Microsoft.

Otra presentación de 2018 para un “Sistema de entretenimiento o computación multimedia para responder a la presencia y actividad del usuario” propone la introducción de datos de sensores tridimensionales para producir un mapa de profundidad de la habitación, uno que podría usarse para el reconocimiento de gestos en toda la habitación. .

También se ha explorado la detección de la mirada. En marzo, Apple solicitó una patente titulada “Cifrado de pantalla dependiente de la mirada”, que medía dónde miraba el usuario en la pantalla. En áreas de visión activa de un usuario, la pantalla actuaría normalmente, pero para otras áreas, colocaría datos falsos, lo que evitaría que los observadores pudieran ver rápidamente los documentos de un usuario.