El iPhone 12 Pro es el primer teléfono inteligente de Apple con un escáner de detección y alcance de luz (LiDAR) en la parte posterior. Pero, ¿qué hace LiDAR y para qué planea usarlo Apple en el futuro?
¿Qué es LiDAR?
Un escáner LiDAR determina la distancia entre él y un objeto monitoreando cuánto tiempo tarda un pulso de luz (a menudo un láser) en rebotar. Es como un radar, excepto que en lugar de ondas de radio utiliza luz infrarroja.
Mientras que el radar está diseñado para usarse a grandes distancias, LiDAR funciona a menor escala, debido a la forma en que la luz es absorbida por los objetos en su camino. Al enviar cientos de miles de pulsos de luz por segundo, los escáneres LiDAR pueden calcular distancias y tamaños de objetos con relativa precisión en distancias pequeñas.
Estos datos se pueden utilizar para construir modelos 3D, que es uno de los principales usos de LiDAR en proyectos de construcción e ingeniería. Probablemente haya oído hablar del uso de escáneres láser 3D para elaborar planos de construcción: eso es LiDAR.
En realidad, LiDAR tiene muchos usos en muchas industrias. Los arqueólogos lo utilizan para preparar sitios de excavación y los vehículos autónomos confían en él para construir mapas 3D en tiempo real de sus alrededores. LiDAR incluso se ha utilizado para crear mapas muy realistas y precisos de pistas de carreras en videojuegos, como Project CARS. Las pistolas rápidas de la policía también utilizan LiDAR.
Y ahora, al igual que el iPad Pro en marzo de 2020, un escáner LiDAR llegó al iPhone 12 Pro premium de Apple.
Cómo el iPhone 12 Pro usa LiDAR
Apple usa LiDAR de manera un poco diferente a un sitio de construcción o un arma de velocidad. Es el mismo principio básico (hacer rebotar la luz para determinar la distancia), pero en una escala más pequeña. El escáner LiDAR del iPhone 12 Pro (y iPad Pro) tiene un alcance efectivo de alrededor de 16 pies (5 metros).
El objetivo principal de LiDAR en el iPhone es mejorar la implementación de la realidad aumentada (AR). Brindará a las aplicaciones información más útil y precisa sobre su entorno, para una RA más fluida y confiable.
Si no está familiarizado con la tecnología, AR permite a los desarrolladores fusionar objetos virtuales y el mundo real. Utiliza la cámara de tu dispositivo y te permite jugar, aplicar filtros interactivos (como los de Snapchat) o obtener una vista previa de la ubicación de muebles y otros objetos.
Pokémon Go es un ejemplo de un juego AR exitoso que te permite capturar criaturas virtuales en el mundo real. Con la exitosa aplicación Place de Ikea, puedes ver cómo se vería la mayor parte del catálogo de la compañía en tu hogar.
LEGO es una de las muchas empresas que también ha lanzado productos independientes (en este caso, juegos de construcción) que pueden “cobrar vida” a través de funciones AR cuando tienes un teléfono inteligente compatible.
Si bien LiDAR se usa a menudo para escanear edificios y otros objetos, el escáner del iPhone 12 Pro y iPad Pro no es lo suficientemente preciso para escanear objetos con precisión. Sebastiaan de With, quien desarrolló la popular aplicación de cámara para iPhone halurodescubrió esto mientras construía una prueba de concepto llamada Esper.
“Desafortunadamente, la producción de malla del sistema en este momento no es lo suficientemente precisa como para enviarla a una impresora 3D”, escribió de With en el Sitio web de halogenuros. “Pero es un excelente punto de partida para un modelo 3D, ya que todas las proporciones serán muy precisas”.
En realidad, es probable que los escáneres LiDAR mejoren en dos cosas principales: la colocación de objetos virtuales (como aplicaciones de compras) y los juegos AR. Esto ya es posible en iPhones que no son LiDAR, pero agrega una capa adicional de precisión a cosas como las dimensiones y la distancia precisa a un objeto en una habitación.
También puede esperar una experiencia de RA más fluida, especialmente al colocar elementos virtuales en el mundo real. Por ejemplo, el iPhone 12 Pro debería poder identificar mejor elementos del mundo real en primer plano. Esto debería generar interacciones más realistas entre objetos virtuales y reales.
Apple también tiene la intención de utilizar LiDAR para mejorar el rendimiento de la cámara en condiciones de poca luz. Se implementaron “píxeles de enfoque” en el iPhone XS, que es la marca de enfoque automático por detección de fase (PDAF) de la compañía. Esta tecnología todavía depende de la luz, razón por la cual incluso los últimos avances en el enfoque automático no funcionan tan bien en la oscuridad.
Al detectar la distancia entre tu iPhone y el sujeto al que estás tomando una fotografía, Apple puede indicarle a la cámara a qué distancia debe enfocar para obtener los mejores resultados. Esto debería hacer que sea mucho más fácil tomar mejores fotografías con su iPhone en la oscuridad, especialmente cuando se combina con el modo nocturno.
Relacionado: ¿Qué son los marcos de realidad aumentada ARCore y ARKit?
¿LiDAR se convertirá en un gran problema?
Actualmente, sólo dos dispositivos Apple tienen sensor. Ambos también tienen un precio premium y cuentan con el apodo “Pro”, por lo que LiDAR es una característica de nicho por ahora. Sin embargo, eso no significa que el software tardará en ponerse al día. La lista exhaustiva de kits de desarrollo de software (SDK) de Apple incluye ARKit, que se actualizó a la versión 4.0 en junio de 2020.
Esta actualización implementó nuevas funciones que aprovechan LiDAR en ARKit, lo que permite a los desarrolladores aprovechar el nuevo sensor del iPad Pro y iPhone 12 Pro. SDK como este hacen posible que los desarrolladores se dirijan a familias enteras de dispositivos, incluso si no cuentan con las últimas novedades.
El plan de Apple probablemente implica instalar sensores LiDAR en más dispositivos con el tiempo, mientras los desarrolladores están ocupados creando aplicaciones que aprovechen el rendimiento mejorado. Teniendo en cuenta el renovado interés de la compañía en la tecnología durante los últimos lanzamientos de software, Apple parece estar apostando fuerte por la RA.
Sin embargo, los mayores planes de Apple para LiDAR podrían ir mucho más allá de las tabletas y los teléfonos inteligentes. Al menos esa es la opinión de muchos analistas, mientras aumentan los rumores sobre el futuro de la compañía. gafas AR rumoreadas. Si un proyecto de este tipo se hiciera realidad, tiene sentido que la RA precisa sea fundamental para la experiencia.
Al alentar a los desarrolladores a adoptar la RA, Apple puede acelerar la disponibilidad de aplicaciones en una nueva plataforma portátil. Un lento lanzamiento en algunos modelos de alta gama sigue la tendencia de Apple con funciones anteriores del iPhone, incluida la retroalimentación háptica, el reconocimiento facial y las cámaras múltiples.
La integración de hardware que beneficia directamente a la RA en dispositivos seleccionados también le brinda a la empresa la oportunidad de ajustarlo antes de lanzar un producto que se apoye más en la tecnología.
¿Vale la pena actualizar LiDAR?
Cuando se trata de decidir entre el iPhone 12 o el iPhone 12 Pro, es poco probable que LiDAR lo influya. A menos que uses muchas aplicaciones que aprovechen la realidad aumentada o tomes muchas fotos por la noche, no verás ningún beneficio a corto plazo.
Incluso si eres un entusiasta jugador de AR o un adicto a los paquetes planos, la implementación de AR en los iPhones actuales sin capacidad LiDAR ha mejorado dramáticamente en tan solo unas pocas generaciones. LiDAR mejora esto aún más, pero probablemente no valga la prima de $ 300 que Apple pide por el iPhone 12 Pro.
Es posible que la mayoría de la gente no esté demasiado entusiasmada con LiDAR en este momento, pero la tecnología se filtrará y mejorará la experiencia general del iPhone en los próximos años. Tampoco es el único gran avance en la línea de iPhone 2020: hay un nuevo ecosistema de accesorios MagSafe, compatibilidad con 5G y grabación Dolby Vision.
Relacionado: Qué significa 5G para el iPhone 12 de Apple