Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

El futuro iPhone puede mantener sus datos privados al rastrear dónde mira

Un iPhone o iPad puede ayudar a garantizar la privacidad de un usuario al monitorear su mirada, mostrando información confidencial solo en las áreas de la pantalla donde están mirando, mientras que los observadores se quedan viendo simultáneamente una pantalla indescifrable.

Uno de los problemas con el uso de dispositivos móviles como un iPhone o iPad es la necesidad de mantener privado el contenido de una pantalla. Es posible que el usuario deba ver información confidencial, como datos financieros o detalles médicos, pero en un lugar público, es difícil evitar que otras personas vean cualquiera de los datos que se muestran en la pantalla.

Si bien es posible hacerlo ocultando la pantalla con barreras físicas o bloqueando activamente la vista de otra persona con una mano, la naturaleza de hacerlo atrae más atención no deseada. También existe la posibilidad de utilizar filtros de pantalla que bloquean la luz en ángulos de visión extremos, aunque esto puede empeorar la calidad visual general para el usuario principal.

En una solicitud de patente publicada por la Oficina de Patentes y Marcas de EE. UU. El jueves titulada «Cifrado de pantalla dependiente de la mirada», Apple propone una forma de manipular el contenido de una pantalla para que solo el usuario activo sepa exactamente lo que se muestra, mientras engaña a otros con datos falsos.

El sistema se centra en Apple detectando la mirada del usuario en la pantalla del dispositivo. Al hacerlo, el dispositivo sabrá exactamente en qué parte de la pantalla debe mostrar una parte real y despejada de la interfaz gráfica o del contenido visualizado.

Una ilustración de un área seleccionada de la pantalla donde el usuario está mirando es clara, mientras que el resto está oculto

Saber dónde está mirando el usuario también informa dónde el usuario no está prestando atención, lo que el sistema utiliza en su beneficio. En el resto de la pantalla que el usuario no está mirando activamente, el sistema aún muestra una imagen, pero una que contiene información inútil e ininteligible que los observadores no pueden entender.

Cuando el usuario cambia el lugar donde está mirando, la pantalla se actualiza para descubrir la nueva región observada, así como para cubrir los datos vistos anteriormente con contenido falso. Al hacerlo, el usuario siempre verá su contenido previsto, con los datos solo parcialmente visibles y, por lo tanto, difíciles de leer o comprender activamente por parte de personas externas.

Es más, Apple sugiere que las partes ilegibles de la pantalla pueden contener contenido que coincida visualmente con el resto de la pantalla, pero la información que contiene puede ser falsa. Al hacer que sea visualmente similar a la información real, esto ayuda a disimular aún más dónde está mirando el usuario en la pantalla, así como a minimizar la posibilidad de que un espectador se dé cuenta de que hay algún tipo de cifrado visual en juego.

Un ejemplo que muestra el nivel de contenido codificado cerca del punto de mira del usuario.

Un ejemplo que muestra el nivel de contenido codificado cerca del punto de mira del usuario.

La presentación enumera a sus inventores como Mehmet Agaoglu, Cheng Chen, Harsha Shirahatti, Zhibing Ge, Shih-Chyuan Fan Jiang, Nischay Goel, Jiaying Wu y William Sprague.

Apple presenta numerosas solicitudes de patente semanalmente, pero si bien las solicitudes y patentes indican áreas de interés para Appleesfuerzos de investigación y desarrollo, no garantiza que la idea aparezca en un producto o servicio futuro.

Dado Applehistoria que rodea al cifrado y la privacidad en general, tiene sentido que algo en el mismo campo salga de Appleequipos de investigación. A diferencia de muchas otras solicitudes de patente, parece bastante plausible para Apple para presentar algo basado en la idea de sus dispositivos actuales.

En términos de viabilidad, los iPhones y iPads actuales tienen la capacidad de procesamiento para modificar el texto o desenfocar la pantalla de alguna manera para ocultar el contenido en puntos específicos. Podría decirse que el proceso de ofuscación es el elemento más sencillo de todo el concepto.

El mayor desafío sería la detección de miradas, que Apple funciona de alguna manera con Face IDFunción de conciencia de atención. ARKit también incluye elementos para el seguimiento ocular, lo que podría conducir al seguimiento de la mirada en marcos futuros.

Aparte del conjunto de cámaras TrueDepth, también se han realizado esfuerzos a lo largo de los años para utilizar cámaras normales para realizar la detección de la mirada, lo que también puede ayudar en este esfuerzo. Hacer que funcione en una cámara normal de cara al usuario podría permitir que dicha característica funcione en iPads, que no incluyen sistemas de cámara tan avanzados.

También hay otras solicitudes de patente relacionadas con la detección de miradas, incluida una de 2013 con una cámara frontal. Otros ejemplos incluyen un sistema de seguimiento ocular para una pantalla AR montada en la cabeza que utiliza elementos holográficos y formas de hacer que la detección de miradas de realidad virtual y realidad aumentada sea más rápida y precisa.