Apple no comenzó con un objetivo para el modo cinematográfico, pero trabajó duro para hacerlo bien

En una reciente entrevista en profundidad, un par de Apple Los ejecutivos han arrojado más luz sobre los objetivos y la creación del nuevo Modo Cinemático en el iPhone. 13 póngase en fila.

Kaiann Drance, AppleEl vicepresidente mundial de marketing de productos y Johnnie Manzari, diseñador del equipo de interfaz humana, hablaron sobre el modo cinematográfico y cómo la empresa siguió la idea a pesar de no tener un objetivo claro.

  

“No teníamos ni idea [for the feature]”, dijo Manzari.” Solo teníamos curiosidad: ¿qué tiene el cine que ha sido atemporal? Y eso nos llevó por este camino interesante y luego comenzamos a aprender más y hablar más con personas de toda la empresa que pueden ayudarnos a resolver estos problemas “.

La función se basa en gran medida en AppleNuevo chip A15 Bionic y Neural Engine. Según Drance, llevar una profundidad de video de alta calidad al video es mucho más difícil que en las fotos.

“A diferencia de las fotos, el video está diseñado para moverse mientras la persona graba, incluido el apretón de manos”, dijo Drance. “Y eso significaba que necesitaríamos datos de profundidad de mayor calidad para que el modo cinematográfico pudiera funcionar en sujetos, personas, mascotas y objetos, y necesitábamos esos datos de profundidad de forma continua para mantenernos al día con cada fotograma. Representar estos cambios de enfoque automático en tiempo real es una gran carga de trabajo computacional “.

Antes de comenzar a trabajar en el modo cinematográfico, Apple Los ejecutivos dijeron que el equipo pasó tiempo investigando técnicas cinematográficas para aprender más sobre la transición de enfoque y otras características ópticas. Manzari dijo que el equipo comenzó con “una profunda reverencia y respeto por la imagen y el cine a lo largo de la historia”.

Cuando estaban desarrollando Portrait Lightning, AppleEl equipo de diseño estudió a retratistas clásicos como Andy Warhol y pintores como Rembrandt.

El proceso fue similar para el modo cinematográfico, con el equipo hablando con algunos de los mejores directores de fotografía y operadores de cámara del mundo. Luego continuaron trabajando con directores de fotografía, operadores de cámara y otros profesionales del cine.

“También fue realmente inspirador poder hablar con los directores de fotografía sobre por qué usan la profundidad de campo baja”, dijo Manzari. “Y para qué sirve en la narración. Y lo que nos alejamos es, y esta es en realidad una visión bastante atemporal: debes guiar la atención del espectador”.

Por supuesto, el Apple El diseñador se dio cuenta de que estas técnicas requieren un alto nivel de habilidad y no eran algo que el usuario promedio de iPhone pudiera realizar fácilmente.

Eso, dijo Manzari, es donde Apple entró. La empresa resolvió problemas técnicos y resolvió problemas con soluciones como la detección de miradas. Algunos de los problemas se solucionaron con el aprendizaje automático, por lo que el modo se apoya en gran medida en el motor neuronal integrado del iPhone.

Manzari dijo que este tipo de desarrollo de funciones representa lo mejor que Apple tiene que ofrecer.

“Creemos que este es el tipo de cosas que Apple aborda los mejores. Tomar algo difícil y convencionalmente difícil de aprender, y luego convertirlo en algo, automático y simple “.