Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

Apple abandona controvertida funcionalidad para combatir la pornografía infantil Carlos Oliveira 7 diciembre 2023

Conocida como CSAM, esta fue una de las características anunciadas por Apple a finales de 2021 para combatir la difusión de la pornografía infantil. Sin embargo, el enfoque norteamericano generó serias preocupaciones que ahora dictan su abandono.

La noticia la dio un representante de Apple a la publicación WIRED. Después de varios meses intentando desarrollar la mejor herramienta posible, la empresa tecnológica acabó desistiendo de esta medida preventiva.

Apple abandona la controvertida funcionalidad CSAM

“Después de una amplia consulta con expertos para recopilar comentarios sobre las iniciativas de protección infantil que propusimos el año pasado, hemos profundizado nuestra inversión en la función de seguridad de las comunicaciones que pusimos a disposición por primera vez en diciembre de 2021. Hemos decidido no seguir adelante con nuestra herramienta de detección CSAM. propuesto anteriormente para Fotos de iCloud Los niños pueden estar protegidos sin que las empresas investiguen datos personales, y continuaremos trabajando con gobiernos, defensores de los niños y otras empresas para ayudar a proteger a los jóvenes, preservar su derecho a la privacidad y hacer de Internet un lugar más seguro para niños y para todos nosotros.”

Estas fueron las declaraciones que hizo la empresa norteamericana para anunciar el fin del desarrollo de esta controvertida herramienta. La protección de los menores seguirá siendo una prioridad para la empresa, aunque habrá que abordarla con un enfoque diferente.

Recuerdo que CSAM consistía en una herramienta de detección automática de contenidos relacionados con el abuso sexual a menores. Ella registraba las fotos de iCloud de los usuarios en busca de material ilegal.

Los resultados se cotejarían con una base de datos predefinida. Si se detectara un caso positivo, la imagen se difuminaría automáticamente para evitar la difusión de ese contenido.

Además, una persona dentro del Apple Debes verificar manualmente la foto marcada. Si se encontrara la presencia de contenido ilegal relacionado con el abuso infantil, posteriormente se notificaría a las autoridades competentes.

A pesar de las buenas intenciones del Apple Con esta herramienta, su operatividad generó serias preocupaciones sobre la privacidad del usuario. Esta búsqueda automática fue vista como un ataque inequívoco a la privacidad de los usuarios, abriéndola en todos los dispositivos.

Luego de los diversos avances y retrocesos de esta herramienta, la Apple ahora decide poner fin a su desarrollo. A cambio, la compañía anunció la disponibilidad de cifrado de extremo a extremo para todo el contenido presente en iCloud.