‘Apple Glass ‘puede ayudar a los usuarios a ver mejor con poca luz utilizando radar y LiDAR

Con una combinación de radar y el LiDAR ahora presente en el iPad Pro y el iPhone 12 Pro, “Apple Glass “podría sentir el entorno alrededor del usuario cuando la luz es demasiado baja para que pueda ver con claridad.

Hemos estado aprendiendo lentamente lo que Apple planes para el sensor LiDAR en dispositivos como el iPhone 12 Pro, que lo usa para ayudar con el enfoque automático. Sin embargo, esa ayuda para enfocar es particularmente útil en entornos con poca luz, y Apple tiene el propósito de aprovechar esa capacidad de ayudar “Apple Usuarios de vidrio.

“Pantalla montada en la cabeza con funcionamiento con poca luz” es una solicitud de patente recientemente revelada, que describe múltiples formas de detectar el entorno alrededor del usuario de una pantalla montada en la cabeza (HMD).

  

“Los ojos humanos tienen diferente sensibilidad en diferentes condiciones de iluminación”, comienza. Apple. Luego detalla muchas formas diferentes de visión humana, desde fotópica hasta mesópica, donde diferentes tipos o cantidades de luz dependen de diferentes “células cónicas del ojo”.

La visión fotópica se describe como el funcionamiento del ojo durante “altos niveles de luz ambiental … como la luz del día”. Luego Apple advierte que la visión mesópica u otras formas de visión no obtienen buenos resultados en comparación.

“En comparación con la visión fotópica, [these] puede resultar en una pérdida de la visión del color, cambios en la sensibilidad a diferentes longitudes de onda de luz, agudeza reducida y más desenfoque de movimiento “, dice Apple. “Por lo tanto, en condiciones de poca luz, como cuando se confía en la visión escotópica, una persona es menos capaz de ver el entorno que en condiciones de buena iluminación”.

AppleLa solución propuesta utiliza sensores en un HMD, como “Apple Glass “, que registra el entorno circundante. Los resultados se transmiten al usuario en un” contenido gráfico “no especificado.

La clave para registrar el entorno es la capacidad de detectar distancias entre objetos, la capacidad de detectar la profundidad. “El sensor de profundidad detecta el entorno y, en particular, detecta la profundidad (por ejemplo, la distancia) desde el mismo hasta los objetos del entorno”, dice Apple.

Una pantalla montada en la cabeza podría incluir sensores de radar y LiDAR

Una pantalla montada en la cabeza podría incluir sensores de radar y LiDAR

“El sensor de profundidad generalmente incluye un iluminador y un detector”, continúa. “El iluminador emite radiación electromagnética (por ejemplo, luz infrarroja) … al medio ambiente. El detector observa la radiación electromagnética reflejada en los objetos del medio ambiente”.

Apple tiene cuidado de no limitar los posibles detectores o métodos que describe su solicitud de patente, pero ofrece “ejemplos específicos”. Uno está usando el tiempo de vuelo y la luz estructurada, donde se proyecta un patrón conocido en el entorno, y el tiempo necesario para reconocer ese patrón proporciona detalles de profundidad.

“En otros ejemplos, el sensor de profundidad puede ser un sensor de detección y rango de radar (RADAR) o un sensor de detección y rango de luz (LIDAR)”, dice Apple. “Cabe señalar que se pueden utilizar uno o varios tipos de sensores de profundidad, por ejemplo, incorporando uno o más de un sensor de luz estructurado, una cámara de tiempo de vuelo, un sensor RADAR y / o un sensor LIDAR”.

AppleEl HMD también podría utilizar “ondas de sonido ultrasónicas”, pero independientemente de lo que produzcan los auriculares, la solicitud de patente trata sobre la medición precisa del entorno y la transmisión de esa información al usuario.

“La [HMD’s] El controlador determina el contenido gráfico de acuerdo con la detección del entorno con uno o más del sensor de infrarrojos o el sensor de profundidad y con el sensor ultrasónico “, dice Apple, “y opera la pantalla para proporcionar el contenido gráfico al mismo tiempo que la detección del entorno”.

Esta solicitud de patente se acredita a cuatro inventores, cada uno de los cuales ha relacionado trabajos anteriores. Eso incluye a Trevor J. Ness, quien tiene créditos en herramientas AR y VR para mapeo facial.

También incluye a Fletcher R. Rothkopf, que tiene una patente anterior relacionada con el suministro de auriculares AR y VR para “Apple Pasajeros del automóvil, sin enfermarlos.

Eso es un problema para todas las pantallas montadas en la cabeza y, junto con esta solicitud de patente con poca luz, Apple ahora tiene uno relacionado con el uso del seguimiento de la mirada para reducir la posible desorientación y, en consecuencia, el mareo por movimiento.

Seguimiento de la mirada para imágenes de realidad mixta

“Dispositivos de mejora de imagen con seguimiento de mirada” es otra solicitud de patente recientemente revelada, esta vez centrada en la presentación de imágenes de RA cuando un usuario puede estar moviendo la cabeza.

“Puede resultar complicado presentar contenido de realidad mixta a un usuario”, explica Apple. “La presentación de imágenes de realidad mixta a un usuario puede, por ejemplo, verse interrumpida por el movimiento de la cabeza y los ojos”.

“Los usuarios pueden tener diferentes capacidades visuales”, continúa. “Si no se tiene cuidado, se presentarán imágenes de realidad mixta que causan desorientación o mareo por movimiento y que dificultan al usuario la identificación de elementos de interés”.

Dependiendo de dónde esté mirando un usuario,

Dependiendo de dónde esté mirando un usuario, “Apple El vidrio “podría alterar las imágenes para prevenir el mareo por movimiento.

La solución propuesta es, en parte, utilizar lo que parece una idea muy similar a la asistencia LiDAR en entornos con poca luz. Un auricular u otro dispositivo “también puede recopilar información sobre la imagen del mundo real, como información sobre el contenido, el movimiento y otros atributos de la imagen mediante el análisis de la imagen del mundo real”.

Eso se suma a lo que el dispositivo sabe sobre la “información de visión de un usuario, como la agudeza visual del usuario, la sensibilidad al contraste, el campo de visión y las distorsiones geométricas”. Junto con las preferencias que el usuario pueda establecer, la imagen de realidad mixta se puede presentar de una manera que minimice la desorientación.

“[As] Por ejemplo, una parte de una imagen del mundo real se puede ampliar para un usuario con baja visión solo cuando el punto de vista del usuario es relativamente estático para evitar inducir efectos de mareo “, dice Apple

Esta solicitud de patente se atribuye a cuatro inventores, incluida Christina G. Gambacorta. Anteriormente figuraba en una patente relacionada relacionada con el uso del seguimiento de la mirada en “Apple Glass “para equilibrar la calidad de la imagen con la duración de la batería al alterar la resolución de lo que mira el usuario.