Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

Los nuevos principios de IA de Google son vagos y sin sentido

A pesar de la protesta pública, incluso entre miles de sus propios empleados, Google continúa su trabajo con el Proyecto Maven. Acaba de publicar una lista de principios de IA que promete cumplir, pero sin una responsabilidad real, no significan mucho.

Hace apenas unas semanas, alrededor de una docena de empleados de Google dimitieron porque Google proporcionaba IA para el Proyecto Maven, un programa piloto del Departamento de Defensa de EE. UU. con el objetivo de acelerar el análisis de imágenes de drones categorizando automáticamente las imágenes como objetos o personas mediante el aprendizaje automático. Además, más 3000 empleados más firmaron una carta abierta instando a la empresa a reconsiderar su participación.

Tras mucha atención de los medios y debate público sobre las cuestiones éticas que se plantean, Google ha intentado públicamente aclarar su postura publicando su nueva Principios de la IA.

Los objetivos de Google para las aplicaciones de IA incluyen:

  1. Ser socialmente beneficioso.
  2. Evite crear o reforzar prejuicios injustos.
  3. Ser construido y probado para mayor seguridad.
  4. Ser responsable ante la gente.
  5. Incorporar principios de diseño de privacidad.
  6. Mantener altos estándares de excelencia científica.
  7. Estar disponible para usos que estén de acuerdo con estos principios.

Google no perseguirá las siguientes aplicaciones de IA:

  1. Tecnologías que causan o pueden causar daño general. Cuando exista un riesgo material de daño, procederemos solo cuando creamos que los beneficios superan sustancialmente los riesgos e incorporaremos restricciones de seguridad apropiadas.
  2. Armas u otras tecnologías cuyo objetivo o implementación principal sea causar o facilitar directamente lesiones a las personas.
  3. Tecnologías que recopilan o utilizan información para vigilancia violando normas aceptadas internacionalmente.
  4. Tecnologías cuyo propósito contraviene principios ampliamente aceptados del derecho internacional y los derechos humanos.

El problema con estas nuevas directrices es que Google está escribiendo sus propias reglas y es él quien define qué es “apropiado”. Los detalles de estos principios de IA incluyen promesas tan vagas como: “Diseñaremos sistemas de IA que brinden oportunidades apropiadas para recibir comentarios, explicaciones relevantes y apelaciones”. Aquí no hay una verdadera responsabilidad ante el público, y Google no se ha comprometido a un proceso de revisión independiente, como fue una sugerencia del científico informático jefe de la Electronic Frontier Foundation, Peter Eckersley, en una declaración a Gizmodo.

Además, la empresa seguirá realizando el mismo trabajo que creó toda esta controversia en primer lugar.

“Queremos dejar claro que si bien no estamos desarrollando IA para su uso en armas, continuaremos nuestro trabajo con los gobiernos y el ejército en muchas otras áreas”.

De acuerdo a El bordeGoogle planea cumplir su contrato y continuar su participación en el Proyecto Maven, hasta que expire en 2019. Google también seguirá compitiendo con empresas como Microsoft y Amazon para las partes de un contrato del Pentágono de 10 mil millones de dólares que están de acuerdo con las nuevas pautas de IA que la compañía se ha fijado.

Veo dos problemas muy grandes con esto. Primero, con Google aparentemente limitado por sus principios de IA, otra empresa sin esos principios obtendrá contratos futuros, y el mismo trabajo cuestionable de IA se llevará a cabo de todos modos. En segundo lugar, si dejamos que las empresas regulen su propia ética, no habrá responsabilidad legal cuando no cumplan las reglas (autoimpuestas y suavizadas).

¿Cual es la solución? Los gobiernos podrían regular la IA y el aprendizaje automático, de modo que todas las empresas de tecnología pudieran cumplir con el mismo (esperemos que alto) estándar de ética al desarrollar y ofrecer tecnología de aprendizaje automático y IA.

El Declaración de Toronto, elaborado por grupos de tecnología y derechos humanos en mayo, es un buen marco de partida para garantizar que los algoritmos respeten los derechos humanos, en el que se podrían basar las regulaciones. Sin responsabilidad ante la ley, los nuevos y vagos principios de IA de Google realmente no significan mucho.

¡Cuéntanos qué piensas sobre la IA en los comentarios!