Apple elimina todas las menciones del controvertido plan CSAM de su sitio web [Update]

el borde

Apple ha eliminado silenciosamente todas las referencias a su controvertido plan para escanear las bibliotecas de iCloud Photos en busca de material de abuso sexual infantil de su sitio web. En agosto, Cupertino anunció su intención de rastrear las imágenes de los usuarios para detectar material CSAM.

  

Sin embargo, despu√©s de encontrar cr√≠ticas significativas de expertos, grupos de derechos e incluso de sus propios empleados, Apple archiv√≥ la funci√≥n. La compa√Ī√≠a dijo en septiembre que hab√≠a “decidido tomarse un tiempo adicional” para recopilar informaci√≥n y realizar mejoras en la funci√≥n. Pero ahora no est√° claro si seguir√° adelante con el escaneo de fotos CSAM.

AppleEl controvertido plan CSAM de

AppleEl plan original era usar un sistema llamado neuralMatch para descubrir imágenes sospechosas de abuso infantil en las bibliotecas de fotos de los usuarios cargadas en iCloud. También planeó emplear revisores humanos para verificar que el material era ilegal.

Una vez que se hizo y verificó una coincidencia, Apple planeaba informarlo a las autoridades locales pertinentes. Las intenciones de la empresa eran obviamente buenas. Pero resulta que la gente no estaba contenta con la idea de escanear sus fotos privadas.

Poco después del anuncio del plan CSAM, Apple enfrentó un aluvión de críticas de defensores de la privacidad, grupos de derechos y organizaciones como Electronic Frontier Foundation. Incluso sus propios empleados se unieron silenciosamente a la reacción.

Apple publicó rápidamente una guía más detallada sobre el escaneo de fotos CSAM en un esfuerzo por calmar las preocupaciones, pero hizo poca diferencia. Apenas un mes después de anunciar el plan, Apple ponerlo en espera.

AppleLa p√°gina de seguridad infantil ya no menciona el MASI

‚ÄúHemos decidido tomarnos un tiempo adicional en los pr√≥ximos meses para recopilar informaci√≥n y realizar mejoras antes de lanzar estas caracter√≠sticas de seguridad infantil de importancia cr√≠tica‚ÄĚ, dijo la compa√Ī√≠a en un comunicado en septiembre.

parecía como si Apple todavía tiene la intención de seguir adelante con la función, que originalmente se suponía que se implementaría en un iOS 15 actualizar, eventualmente. Ahora, todas las menciones de CSAM se han ido de AppleLa página web de seguridad infantil.

No est√° claro qu√© significa esto para el an√°lisis de CSAM. A pesar de que Apple parec√≠a decidido a seguir adelante con la funci√≥n, los √ļltimos desarrollos sugieren que la compa√Ī√≠a podr√≠a haber descartado la idea por completo.

Preguntamos Apple para aclaraciones y actualizaremos esta publicación si recibimos una respuesta.