AppleLa aplicación Fotos puede reconocer a las personas por su rostro y lenguaje corporal en el futuro

AppleLa aplicación Fotos puede mejorar su función de identificación de sujetos Faces no solo mediante el reconocimiento facial, sino también trabajando para identificar el lenguaje corporal individual de las personas, las poses típicas y el torso.

Más de una década desde que introdujo la detección de rostros en iPhoto ’09, Apple está investigando cómo mejorar su capacidad para identificar personas en imágenes. Tan inteligente y útil como es la función Caras, se mezcla fácilmente y Apple quiere usar detalles adicionales, como el lenguaje corporal, para clasificar a las personas.

“Reconocer a las personas mediante la combinación de señales faciales y corporales” es una solicitud de patente recientemente revelada que describe múltiples formas en que esto podría hacerse y por qué es necesario.

  

“Con la proliferación de dispositivos móviles con cámara, los usuarios pueden capturar numerosas fotos de cualquier número de personas y objetos en diferentes entornos y ubicaciones geográficas”, dice Apple. “Sin embargo, categorizar y organizar esas imágenes puede ser un desafío”.

“A menudo, el reconocimiento facial se utiliza para identificar a una persona a través de imágenes, pero el reconocimiento facial puede fallar”, continúa, “por ejemplo, en el caso de una imagen de mala calidad y / o la pose de la persona, como si la persona está apartar la mirada de la cámara “.

Así que es culpa nuestra que nuestras fotos dificulten la detección de rostros. AppleLa solución propuesta es crear lo que llama un “grupo” de características de una persona, no solo su rostro.

“Las imágenes tomadas durante un período de tiempo se pueden agrupar en ‘momentos’, en los que cada momento representa un conjunto de imágenes espaciotemporalmente consistentes”, dice Apple. “Dicho de otra manera, un ‘momento’ consiste en imágenes tomadas dentro de una misma ubicación general (por ejemplo, casa, trabajo, un restaurante u otra ubicación significativa), y dentro de un mismo período de tiempo de una duración predeterminada”.

Las fotos que toma en casa una mañana, por ejemplo, luego se analizan y los datos sobre cada persona en la imagen se almacenan en lo que Apple llama un “espacio de incrustación abstracto multidimensional”. Es una base de datos de información obtenida sobre esa persona a partir de estas fotos.

Detalle de la patente que describe un flujo de trabajo para aumentar el reconocimiento facial con otras características

Detalle de la patente que describe un flujo de trabajo para aumentar el reconocimiento facial con otras características

“[This is] no solo en función de las características de la cara, sino también en función de características adicionales del cuerpo (por ejemplo, el torso) de las personas que aparecen en las imágenes “, dice Apple. “Estas características pueden incluir, por ejemplo, forma, textura, pose y similares”.

Sin embargo, no todas estas características se tratan por igual. “[For instance] es menos probable que las características del torso sean consistentes a lo largo de los momentos … porque las personas se cambian de ropa a lo largo de días, semanas, meses, etc. “, continúa Apple.

Así que sigue siendo el rostro central para esta detección y la catalogación de este “cúmulo” de información. Apple sólo habla de la creación de grupos en uno, dos o tres “momentos” de la toma de fotografías, pero parece que la precisión mejora cuanto más imágenes tiene para trabajar.

Esta solicitud de patente enumera tres inventores. Incluye a Vinay Sharma, cuyo trabajo previo incluye una patente otorgada sobre sistemas de entrenamiento para mejorar el reconocimiento facial.