Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

Apple acordó no revisar sus fotos. Adiós

Estamos cubriendo activamente el tema del nuevo algoritmo. Apple para procesar fotos personales. Durante este tiempo, sucedieron muchas cosas interesantes: desde el anuncio de esta funci√≥n hasta las excusas de Craig Federighi y el lanzamiento de un FAQ completo de Apple, en el que se pintaron todos los matices de esta tecnolog√≠a. En general, lo que no estaba ah√≠. Esperado: Apple abandon√≥ la funci√≥n de b√ļsqueda de pornograf√≠a infantil en sus fotos, lo que retras√≥ el lanzamiento. Parece que los usuarios normales han obtenido una peque√Īa victoria en la batalla por la privacidad de los datos. Le diremos lo que sucedi√≥ y si el sentido com√ļn realmente gan√≥.

Por qué Apple ver foto

Se realiz√≥ el primer anuncio de un nuevo algoritmo de b√ļsqueda de materiales de abuso sexual infantil llamado CSAM (Child Sexual Abuse Material) 5 Agosto de 2021, provocando una fuerte reacci√≥n en l√≠nea. Las funciones inclu√≠an la b√ļsqueda de im√°genes de abuso sexual infantil mediante un algoritmo especial. El algoritmo tambi√©n es capaz de bloquear mensajes potencialmente inapropiados enviados a iMessage.

M√°s tarde, la compa√Ī√≠a aclar√≥ que la actualizaci√≥n solo afectar√≠a las fotos cargadas a iCloud de los sospechosos en este acto. La compa√Ī√≠a ha negado que el contenido encontrado est√© disponible para ella, el Centro Nacional para Ni√Īos Desaparecidos y Explotados (NCMEC) o la polic√≠a.

Apple se negó a comprobar la foto. Es por eso

La compa√Ī√≠a aclar√≥ que decidi√≥ pausar el lanzamiento de esta funci√≥n y posponer la implementaci√≥n del nuevo algoritmo despu√©s de muchas cr√≠ticas negativas de los usuarios. Apple afirma que planea dedicar m√°s tiempo al desarrollo y consultas sobre la introducci√≥n de un nuevo algoritmo. A pesar de las afirmaciones iniciales de que la tecnolog√≠a es muy precisa, la empresa planea perfeccionarla y recopilar m√°s informaci√≥n para realizar mejoras.

Esto se debe al hecho de que para no enojar a los usuarios y no convertirlos en sospechosos, la nueva funci√≥n deber√≠a ayudar a proteger a los ni√Īos y protegerlos del peligro, y no enviar a usuarios inocentes a la c√°rcel. La compa√Ī√≠a no especifica la fecha exacta por cu√°nto tiempo se retrasar√° la implementaci√≥n del algoritmo, pero dice que lo mejorar√° “en los pr√≥ximos meses”. Este es el movimiento correcto, porque no estamos hablando de una actualizaci√≥n de iOS ordinaria, sino de la libertad de las personas: no podr√° salir aqu√≠ lanzando una actualizaci√≥n.

Adem√°s, no hay una descripci√≥n detallada de c√≥mo la empresa planea “consultar” y con qui√©n recopilar informaci√≥n; tal vez esto ya afecte de alguna manera los datos personales de los usuarios. Puede adivinar durante un tiempo incre√≠blemente largo, y solo la empresa tiene la respuesta exacta. ¬ŅQu√© piensas sobre esto? Escr√≠banos en el chat de Telegram, hablemos.

Cómo Apple respondió a las críticas de CSAM

La indignaci√≥n de los usuarios y la protesta p√ļblica generalizada jugaron a favor: los expertos en el campo de la seguridad de la informaci√≥n se pronunciaron e incluso el propio Edward Snowden, quien inst√≥ a Apple detener y no implementar la funci√≥n. Esto es correcto, porque dondequiera que se busque contenido infantil prohibido, se est√° cerca de espiar a los usuarios. La empresa anunci√≥ una innovaci√≥n, tratando de hacer algo bueno, pero comenz√≥ a explicar el principio de su funcionamiento solo despu√©s de un tiempo, emitiendo comunicados de prensa y art√≠culos explicativos completos sobre este tema.

A pesar de las quejas, Craig Federighi traté de calmar a todosexplicando personalmente el principio del nuevo mecanismo de procesamiento de fotografías. Llamó a toda la negatividad que golpeó a la empresa como resultado del anuncio de innovaciones como confusión y dijo que los usuarios malinterpretaron las intenciones de la empresa.

Nos gustar√≠a dejarlo m√°s claro para todos, porque somos muy positivos y decididos sobre lo que hacemos y vemos, pero esto se malinterpreta ‚ÄĚ, dijo Craig Federighi.

Apple comprobar√° la foto. Porque es tan malo

La empresa se enorgullece de los sistemas de seguridad que actualiza y mejora cada a√Īo. Escaneas tu cara a trav√©s de la cara ID o desliza para desbloquear el iPhone usando Touch ID… Esto protege el dispositivo de los malvados. De repente, el fabricante est√° agregando una funci√≥n que puede rastrear sin problemas en su dispositivo y almacenamiento en la nube para encontrar contenido, en su opini√≥n, inapropiado. ¬ŅQu√© har√° ella con √©l?

Es dif√≠cil de entender, porque el mecanismo, seg√ļn la empresa, funcionar√° con mucha precisi√≥n, pero tampoco Apple, sin polic√≠a, sin organizaciones de derechos humanos. ¬ŅD√≥nde est√° la garant√≠a de que el algoritmo no robar√° datos ni robar√° fotos personales de los usuarios? Como siempre, no hay garant√≠as. Adem√°s, esto viola el derecho de los usuarios a la privacidad de los datos personales; est√° claro que es est√ļpido esperar esto en 2021, pero simplemente no vale la pena ser tan descarado.

La empresa ya tiene acceso a los datos del usuario: algunos de los datos están encriptados para protegerlos contra piratería, pero a petición de las autoridades. Apple descifrarlos fácilmente, porque las corporaciones no necesitan problemas con la ley y una prohibición de actividades. El algoritmo CSAM es un buen intento de evitar espiar a los usuarios, solo que a nadie le gusta ni lo necesita. La gente compra teléfonos inteligentes caros Apple y utilizar los servicios de una empresa que afirma que la privacidad es su fortaleza. Resulta que todo lo contrario. Esperamos continuar en esta historia.