Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

Apple abandona controvertida funcionalidad para combatir la pornografía infantil Carlos Oliveira 7 diciembre 2023

Conocida como CSAM, esta fue una de las características anunciadas por Apple a finales de 2021 para combatir la difusión de la pornografía infantil. Sin embargo, el enfoque norteamericano generó serias preocupaciones que ahora dictan su abandono.

La noticia la dio un representante de Apple a la publicación WIRED. Después de varios meses intentando desarrollar la mejor herramienta posible, la empresa tecnológica acabó desistiendo de esta medida preventiva.

Apple abandona la controvertida funcionalidad CSAM

“Despu√©s de una amplia consulta con expertos para recopilar comentarios sobre las iniciativas de protecci√≥n infantil que propusimos el a√Īo pasado, hemos profundizado nuestra inversi√≥n en la funci√≥n de seguridad de las comunicaciones que pusimos a disposici√≥n por primera vez en diciembre de 2021. Hemos decidido no seguir adelante con nuestra herramienta de detecci√≥n CSAM. propuesto anteriormente para Fotos de iCloud Los ni√Īos pueden estar protegidos sin que las empresas investiguen datos personales, y continuaremos trabajando con gobiernos, defensores de los ni√Īos y otras empresas para ayudar a proteger a los j√≥venes, preservar su derecho a la privacidad y hacer de Internet un lugar m√°s seguro para ni√Īos y para todos nosotros.”

Estas fueron las declaraciones que hizo la empresa norteamericana para anunciar el fin del desarrollo de esta controvertida herramienta. La protección de los menores seguirá siendo una prioridad para la empresa, aunque habrá que abordarla con un enfoque diferente.

Recuerdo que CSAM consistía en una herramienta de detección automática de contenidos relacionados con el abuso sexual a menores. Ella registraba las fotos de iCloud de los usuarios en busca de material ilegal.

Los resultados se cotejarían con una base de datos predefinida. Si se detectara un caso positivo, la imagen se difuminaría automáticamente para evitar la difusión de ese contenido.

Además, una persona dentro del Apple Debes verificar manualmente la foto marcada. Si se encontrara la presencia de contenido ilegal relacionado con el abuso infantil, posteriormente se notificaría a las autoridades competentes.

A pesar de las buenas intenciones del Apple Con esta herramienta, su operatividad gener√≥ serias preocupaciones sobre la privacidad del usuario. Esta b√ļsqueda autom√°tica fue vista como un ataque inequ√≠voco a la privacidad de los usuarios, abri√©ndola en todos los dispositivos.

Luego de los diversos avances y retrocesos de esta herramienta, la Apple ahora decide poner fin a su desarrollo. A cambio, la compa√Ī√≠a anunci√≥ la disponibilidad de cifrado de extremo a extremo para todo el contenido presente en iCloud.