Casi un año después de que reveló que Apple los contratistas estaban escuchando las grabaciones de Siri, el denunciante se ha hecho público y siente que Apple no fue lo suficientemente castigado por sus acciones.
En una carta a las agencias europeas de regulación de la protección de datos, Thomas le Bonniec se reveló como el denunciante que declaró en julio de 2019 que Apple estaba manejando mal las consultas de Siri de los consumidores.
“Es preocupante que Apple (y sin duda no solo Apple) sigue ignorando y violando los derechos fundamentales y continúa con su recopilación masiva de datos “, escribió Le Bonniec, según el miércoles por la mañana.” Estoy extremadamente preocupado de que las grandes empresas de tecnología estén básicamente escuchando a poblaciones enteras a pesar de que se les dice a los ciudadanos europeos que la UE tiene uno de las leyes de protección de datos más estrictas del mundo. Aprobar una ley no es lo suficientemente bueno: debe aplicarse a los infractores de la privacidad “.
Le Bonniec repitió muchas de sus afirmaciones que hizo en 2019 y dice que Apple deberían ser “investigados urgentemente” por las autoridades de protección de datos y los organismos de control de la privacidad. Agrega que “Apple no ha sido objeto de ningún tipo de investigación a mi leal saber y entender “.
Poco después de que surgieran las acusaciones, Apple suspendió el programa de calificación mientras realizaba una revisión del programa. También agregó un elemento de suscripción o exclusión voluntaria para el programa en iOS. 13.2.
La controversia de clasificación de Siri
En el momento, Apple no reveló explícitamente a los consumidores que las grabaciones se transmitieron a los contratistas, pero Apple ha dicho a los usuarios en términos de documentos de servicio que algunas consultas se revisan manualmente, y lo ha hecho desde el lanzamiento del servicio. A pesar de que la información ha estado de cara al público durante al menos seis versiones de iOS, le Bonniec estaba preocupado por la falta de divulgación, especialmente considerando el contenido de algunas grabaciones que contienen “información personal extremadamente sensible”.
La naturaleza de la información, a veces involuntaria y que no forma parte de la consulta, es amplia, dijo el denunciante en julio de 2019.
“Definitivamente se puede escuchar a un médico y un paciente hablar sobre el historial médico del paciente”, dijo le Bonniec en ese momento. “O escucharías a alguien, tal vez con el ruido de fondo del motor de un automóvil; no se puede decir con certeza, pero es un negocio de drogas. Definitivamente puedes escuchar lo que sucede”, dijo.
Le Bonniec continuó diciendo que hubo muchas grabaciones “con discusiones privadas entre médicos y pacientes, acuerdos comerciales, tratos aparentemente criminales, encuentros sexuales, etc. Estas grabaciones están acompañadas de datos del usuario que muestran la ubicación, los detalles de contacto y los datos de la aplicación”.
Supuestamente, no existía un procedimiento para lidiar con grabaciones confidenciales, y el denunciante dio un paso al frente sobre la sugerencia de que los datos podrían usarse indebidamente fácilmente. Citando la falta de investigación de antecedentes para los empleados y la gran cantidad de datos proporcionados, Le Bonniec sugirió que “no sería difícil identificar a la persona a la que estás escuchando, especialmente con desencadenantes accidentales” como nombres y direcciones, especialmente para “alguien con intenciones nefastas “.
Apple inicialmente confirmó “Una pequeña parte de las solicitudes de Siri se analizan para mejorar Siri y el dictado”, pero agregó que se mantuvo lo más seguro posible.
“Las solicitudes de usuario no están asociadas con las del usuario Apple ID”, continuó la empresa,” las respuestas de Siri se analizan en instalaciones seguras y todos los revisores tienen la obligación de cumplir Appleestrictos requisitos de confidencialidad “.
Apple agregó que un subconjunto aleatorio de menos de 1El% de las activaciones diarias de Siri se utilizan para calificar, las grabaciones generalmente solo duran unos pocos segundos.
Al final de agosto, Apple completó su revisión y se confirmarán los cambios, incluida la opción de optar por el análisis de muestras de audio, y que solo Apple Los empleados, y no los contratistas, podrían escuchar las muestras. Apple tampoco retendría más las grabaciones de audio de las interacciones de Siri en favor del uso de transcripciones generadas por computadora para mejorar Siri, y también “trabajaría para eliminar” cualquier grabación que se determine que es un desencadenante involuntario de Siri.
El informe siguió a un año de historias similares relacionadas con la privacidad sobre Google Assistant y AmazonAlexa, donde los equipos tenían acceso a algunos registros de datos de clientes con grabaciones, para propósitos de revisión similares.
En el Amazon En este caso, los datos de voz capturados se asociaron con cuentas de usuario. Con respecto a Google, un investigador proporcionó un fragmento de voz que Google retuvo para analizar al reportero que hizo la solicitud, pero Google dice que las muestras no son identificables por la información del usuario. No está claro cómo el investigador identificó al usuario.