Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

Miles firman carta pidiendo Apple para descartar planes para escanear las fotos de los usuarios en busca de imágenes de abuso infantil

Apple  espionaje

Se envió una carta abierta firmada por defensores de la privacidad, expertos en seguridad, empresas de tecnología y especialistas legales a Apple, denunciando los planes de la compañía de escanear las fotos de los usuarios de Mac, iPad y iPhone en busca de evidencia de abuso infantil.

Mientras que en la cara AppleLos planes de “Protección ampliada para los niños” son algo bueno, pero también han recibido fuertes críticas. Con el lanzamiento de macOS Monterey, iOS 15 y iPad OS 15, la compañía está implementando la detección de CSAM (material de abuso sexual infantil) que verificará los valores hash de las imágenes para ver si aparecen en las bases de datos de imágenes de abuso conocido. Se ha comparado con la creación de una puerta trasera para los archivos de los usuarios y ha horrorizado a los expertos en privacidad.

En una publicación en la sección Seguridad infantil de su sitio web, Apple dice que quiere “ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación del material de abuso sexual infantil (MASI)”. Y es con esto en mente que la compañía planea escanear imágenes enviadas a través de Mensajes o cargadas a iCloud en busca de “imágenes CSAM conocidas”.

O como Apple lo pone:

Apple está introduciendo nuevas características de seguridad infantil en tres áreas, desarrolladas en colaboración con expertos en seguridad infantil. En primer lugar, las nuevas herramientas de comunicación permitirán a los padres desempeñar un papel más informado para ayudar a sus hijos a navegar la comunicación en línea. La aplicación Mensajes utilizará el aprendizaje automático en el dispositivo para advertir sobre contenido sensible, mientras mantiene ilegibles las comunicaciones privadas por Apple.

A continuación, iOS y iPadOS utilizarán nuevas aplicaciones de criptografía para ayudar a limitar la propagación de CSAM en línea, mientras se diseña para la privacidad del usuario. La detección de CSAM ayudará Apple proporcionar información valiosa a las fuerzas del orden sobre las colecciones de CSAM en iCloud Photos.

Por último, las actualizaciones de Siri y Search brindan a padres e hijos información ampliada y ayuda en caso de que se encuentren en situaciones inseguras. Siri y Search también intervendrán cuando los usuarios intenten buscar temas relacionados con CSAM.

Hay varios elementos preocupantes aquí, uno de los cuales es el potencial de falsos positivos (ya que los hash de imagen no son únicos, lo que significa que una imagen de abuso podría tener el mismo hash que algo completamente inocente).

Entre los que expresan su preocupación por los planes se encuentra Edward Snowden. Además de expresar una profunda preocupación por lo que Apple está pensando en hacer, también estaba consternado por AppleLa respuesta a la reacción negativa que hizo que la empresa se refiriera a quienes no estaban de acuerdo con sus planes como “voces chillonas”:

Increíble: @Apple ahora circula una carta de propaganda que describe la oposición en Internet a su decisión de comenzar a verificar los archivos privados en cada iPhone con una lista negra secreta del gobierno como “las voces chillonas de la minoría”.

Esto se ha convertido en un escándalo. https://t.co/uoa4uuNTaP

– Edward Snowden (@Snowden) agosto 6, 2021

Los defensores de la privacidad EFF (Electronic Frontier Foundation) dicen que es una gran invasión de la privacidad:

AppleEl plan de escaneo de fotos que se cargan en iCloud Photos es similar en algunos aspectos al PhotoDNA de Microsoft. La principal diferencia del producto es que AppleEl escaneo se realizará en el dispositivo. La base de datos (no auditable) de imágenes CSAM procesadas se distribuirá en el sistema operativo (SO), las imágenes procesadas se transformarán para que los usuarios no puedan ver cuál es la imagen, y la coincidencia se realizará en esas imágenes transformadas utilizando una intersección de conjuntos privados donde el dispositivo no lo hará. saber si se ha encontrado una coincidencia. Esto significa que cuando se implementen las funciones, se cargará una versión de la base de datos CSAM del NCMEC en cada iPhone. El resultado de la coincidencia se enviará hasta Apple, pero Apple solo puede decir que se encontraron coincidencias una vez que una cantidad suficiente de fotos haya coincidido con un umbral preestablecido.

Una vez que se detecta un cierto número de fotos, las fotos en cuestión se enviarán a revisores humanos dentro de Apple, quienes determinan que las fotos son de hecho parte de la base de datos de CSAM. Si el revisor humano lo confirma, esas fotos se enviarán al NCMEC y se deshabilitará la cuenta del usuario. Una vez más, la conclusión aquí es que, independientemente de los aspectos de privacidad y seguridad que se encuentren en los detalles técnicos, se escanearán todas las fotos cargadas en iCloud.

No se equivoque: esto es una disminución de la privacidad para todos los usuarios de iCloud Photos, no una mejora.

En una reunión masiva de mentes opuestas, miles han firmado una carta abierta quejándose de que “AppleLa propuesta introduce una puerta trasera que amenaza con socavar las protecciones fundamentales de privacidad para todos los usuarios de Apple productos “.

La carta dice:

AppleEl camino actual amenaza con socavar décadas de trabajo de tecnólogos, académicos y defensores de políticas para que las medidas sólidas de preservación de la privacidad sean la norma en la mayoría de los casos de uso y dispositivos electrónicos de consumo. Te lo pedimos Apple reconsidere su implementación de tecnología, no sea que deshaga ese importante trabajo.

Los signatarios realizan dos solicitudes:

  1. Apple La implementación de la tecnología de monitoreo de contenido propuesta por Inc. se detiene de inmediato.
  2. Apple Inc. emitió una declaración reafirmando su compromiso con el cifrado de extremo a extremo y con la privacidad del usuario.

La carta completa y una lista de los que la han firmado se pueden ver aquí.