el borde
Apple ha eliminado silenciosamente todas las referencias a su controvertido plan para escanear las bibliotecas de iCloud Photos en busca de material de abuso sexual infantil de su sitio web. En agosto, Cupertino anunció su intención de rastrear las imágenes de los usuarios para detectar material CSAM.
Sin embargo, después de encontrar críticas significativas de expertos, grupos de derechos e incluso de sus propios empleados, Apple archivó la función. La compañía dijo en septiembre que había “decidido tomarse un tiempo adicional” para recopilar información y realizar mejoras en la función. Pero ahora no está claro si seguirá adelante con el escaneo de fotos CSAM.
AppleEl controvertido plan CSAM de
AppleEl plan original era usar un sistema llamado neuralMatch para descubrir imágenes sospechosas de abuso infantil en las bibliotecas de fotos de los usuarios cargadas en iCloud. También planeó emplear revisores humanos para verificar que el material era ilegal.
Una vez que se hizo y verificó una coincidencia, Apple planeaba informarlo a las autoridades locales pertinentes. Las intenciones de la empresa eran obviamente buenas. Pero resulta que la gente no estaba contenta con la idea de escanear sus fotos privadas.
Poco después del anuncio del plan CSAM, Apple enfrentó un aluvión de críticas de defensores de la privacidad, grupos de derechos y organizaciones como Electronic Frontier Foundation. Incluso sus propios empleados se unieron silenciosamente a la reacción.
Apple publicó rápidamente una guía más detallada sobre el escaneo de fotos CSAM en un esfuerzo por calmar las preocupaciones, pero hizo poca diferencia. Apenas un mes después de anunciar el plan, Apple ponerlo en espera.
AppleLa página de seguridad infantil ya no menciona el MASI
“Hemos decidido tomarnos un tiempo adicional en los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”, dijo la compañía en un comunicado en septiembre.
parecía como si Apple todavía tiene la intención de seguir adelante con la función, que originalmente se suponía que se implementaría en un iOS 15 actualizar, eventualmente. Ahora, todas las menciones de CSAM se han ido de AppleLa página web de seguridad infantil.
No está claro qué significa esto para el análisis de CSAM. A pesar de que Apple parecía decidido a seguir adelante con la función, los últimos desarrollos sugieren que la compañía podría haber descartado la idea por completo.
Preguntamos Apple para aclaraciones y actualizaremos esta publicación si recibimos una respuesta.