Apple Glass podría comunicarse con otros dispositivos para un mapeo AR preciso

El rumoreado Apple Glass podría aprovechar los datos de otras unidades para mapear con precisión un entorno, con pantallas montadas en la cabeza que capturan datos en una escena y los comparten para una mejor experiencia de realidad aumentada.

La realidad aumentada depende de tener una medición precisa de la geometría en un entorno, con dispositivos de imágenes que realizan la tarea a medida que las cámaras se mueven por un área. Para un solo auricular, esto puede ser un proceso relativamente lento, pero realizar la misma tarea usando varios dispositivos puede ser beneficioso y crear sus propios problemas.

Para empezar, si varios dispositivos AR están monitoreando un entorno de forma independiente, la geometría en los mapas que crea cada uno puede no ser necesariamente precisa. Dos personas que ven un área en función de datos recopilados de forma independiente pueden ver objetos virtuales colocados de manera ligeramente diferente debido a las variaciones del mapa.

  

En una patente concedida a Apple el martes por la Oficina de Patentes y Marcas de EE. UU. titulado “Localización y mapeo simultáneo de múltiples usuarios (SLAM)”, Apple sugiere que el uso de múltiples dispositivos podría ser beneficioso al compartir datos cartográficos, lo que puede crear un mapa más preciso para todos los usuarios.

Múltiples usuarios en diferentes puntos de vista pueden ayudar a generar mapas AR más rápido.

La precisión se puede mejorar de varias maneras, como que varios dispositivos puedan realizar una generación inicial de mapas de un área a un ritmo más rápido que un dispositivo por sí solo, o que un dispositivo pueda capturar áreas que el segundo no puede ver o perder por completo. Tener puntos de datos duplicados para la misma área mapeada también es útil, ya que puede usarse para corregir cualquier error en un mapa generado.

Al crear un mapa más preciso, esto puede permitir una mejor ubicación de los marcadores virtuales en un mundo, por lo que los objetos y escenas digitales se pueden ver en la misma ubicación del mundo real desde múltiples auriculares o dispositivos.

En AppleEn la descripción, los sensores de imágenes en los dispositivos crean fotogramas clave a partir de imágenes en un entorno, que se aplican a los sistemas de coordenadas dependientes del dispositivo. Los fotogramas clave pueden constar de datos de imagen, datos adicionales y una representación de una pose del dispositivo, entre otros elementos. Luego, cada sistema genera mapas de ubicaciones relativas.

Luego, los fotogramas clave se intercambian entre los dispositivos, se emparejan con los fotogramas clave del propio dispositivo y luego se utilizan en los cálculos para generar más puntos de mapeo. Las coordenadas de los puntos de anclaje también se comparten entre dispositivos para el posicionamiento de objetos.

La patente agrega que el sistema podría funcionar de manera descentralizada, con dispositivos que se comunican directamente en lugar de depender de un servidor intermediario para compartir los datos. En los casos en los que los datos de posicionamiento se comparten entre usuarios en una aplicación, como los juegos, el uso compartido generalmente usa un servidor central para distribuir los datos entre los jugadores, pero Apple en su lugar, ofrece un enfoque más ad-hoc de comunicación directa para una sesión de mapeo AR.

Diferentes puntos de vista podrían permitir que un dispositivo comparta datos sobre un objeto que otro no puede ver.

Diferentes puntos de vista podrían permitir que un dispositivo comparta datos sobre un objeto que otro no puede ver.

La patente enumera a sus inventores como Abdelhamid Dine, Kuen-Han Lin y Oleg Naroditsky. Fue archivado en mayo 2, 2019.

Apple presenta numerosas solicitudes de patente semanalmente, pero mientras que las solicitudes de patente son una indicación de áreas de interés para Appleesfuerzos de investigación y desarrollo, no garantizan que los conceptos aparecerán en un producto o servicio futuro.

Si bien la idea de SLAM se puede realizar en dispositivos móviles, como iPhones utilizando aplicaciones ARKit, es más probable que los usuarios experimenten tal concepto en Apple Vidrio, AppleGafas inteligentes de larga data con capacidades de realidad aumentada.

Las solicitudes de patente de 2016 indican Apple quería aprovechar el posicionamiento AR en las aplicaciones, con una versión basada en iPhone utilizada para “mapas de realidad aumentada” que superpondría un mapa digital y datos en una vista de cámara del mundo real. Una presentación relacionada de 2017 sugirió que se podría usar un dispositivo AR para identificar objetos cercanos para un usuario, lo que nuevamente podría proporcionar más información en una pantalla y obtener más datos de otro sistema.