El discurso en torno a la inteligencia artificial es a menudo polarizador: ya sea exagerando sus aspectos positivos y capacidades, o infundiendo miedo sobre nuestra inminente perdición a manos de Skynet. No deberíamos dejar que los problemas reales que rodean a la IA Piérdete en este mar de sensacionalismo. Un problema común que ya estamos viendo es que la IA está lejos de ser neutral. Puede discriminar, y lo hace, porque a menudo hereda prejuicios humanos.
El atractivo de la inteligencia artificial es comprensible. Puede analizar grandes cantidades de datos sin problemas y hacer predicciones basadas únicamente en hechos fríos y concretos. O eso nos gustaría pensar. Sin embargo, la verdad es que la mayoría de los datos de entrenamiento que utilizan los algoritmos de aprendizaje automático en la actualidad son construidos por humanos o al menos con participación humana. Y como la mayoría de los algoritmos actuales no son de código abierto, no podemos saber qué tan completa es la información que recibe una IA y si se han cubierto todas las variables.
Problemas existentes y futuros.
¿Por qué es esto un problema? Porque la inteligencia artificial no se trata solo de seleccionar tus recomendaciones de Netflix o tus feeds de redes sociales, sino que también toma cada vez más decisiones que pueden tener un impacto significativo en tu vida. Se utilizan algoritmos de aprendizaje automático para escanear currículums y seleccionar candidatos adecuados para puestos de trabajo, predecir tasas de reincidencia y algunos incluso intentan detectar futuros terroristas basándose en sus rasgos faciales.
Ya ha habido casos que muestran cómo la IA puede heredar los prejuicios humanos y marginar aún más a minorías o grupos vulnerables. Uno de los ejemplos más conocidos es un experimento. Amazon herramienta de contratación que discrimina a las mujeres. El algoritmo calificaba a los candidatos de una a cinco estrellas y debía seleccionar a los más adecuados para el puesto. Sin embargo, comenzó a discriminar a las mujeres, porque los datos con los que se capacitó contenían principalmente CV de candidatos masculinos. Por lo tanto, concluyó que las mujeres no eran deseables y penalizó las solicitudes que incluyeran la palabra “mujeres”. Aunque el programa fue editado para hacerlo neutral, el proyecto fue descartado y nunca se implementó realmente.
A estudio de Pro Publica, por otro lado, descubrió que COMPAS, un algoritmo que supuestamente predice la reincidencia, tenía un sesgo racial. Su análisis “encontró que los acusados negros tenían muchas más probabilidades que los acusados blancos de ser considerados incorrectamente como de mayor riesgo de reincidencia, mientras que los acusados blancos tenían más probabilidades que los acusados negros de ser etiquetados incorrectamente como de bajo riesgo”.
Casos como estos demuestran que la explicabilidad y la transparencia son inmensamente importantes en el campo de la IA. Cuando una máquina toma decisiones sobre el futuro de una persona, tenemos que saber en qué se basa. En el caso de COMPAS, se utilizaron datos de encarcelamiento. Sin embargo, confiar en datos históricos puede tener sus problemas: las máquinas encontrarán patrones históricos coloreados por prejuicios de género, raciales y de otro tipo. El hecho de que, por ejemplo, históricamente haya habido menos candidatos masculinos para puestos de enfermería, no significa que los hombres estén menos calificados o sean menos merecedores.
También hay casos en los que la inteligencia artificial puede tener razón, pero por motivos equivocados. Según el Washington Post, “Un profesor de la Universidad de Washington compartió el ejemplo de un colega que entrenó un sistema informático para distinguir entre perros y lobos. Las pruebas demostraron que el sistema era casi 100 por ciento exacto. Pero resultó que la computadora tuvo éxito. “Porque aprendió a buscar nieve en el fondo de las fotos. Todas las fotos de lobos fueron tomadas en la nieve, mientras que las fotos de perros no”.
Finalmente, tenemos que discutir casos en los que la IA se utiliza en combinación con ciencia y datos dudosos. Una startup israelí llamada Faception afirma ser capaz de identificar terroristas potenciales por sus rasgos faciales con la ayuda de inteligencia artificial. Más preocupante, según el Washington Postya firmaron un contrato con una agencia de seguridad territorial.
El director general de la empresa, Shai Gilboa, afirma que “nuestra personalidad está determinada por nuestro ADN y se refleja en nuestro rostro. Es una especie de señal”. Usos de la facepción 15 clasificadores que supuestamente pueden identificar ciertos rasgos con un 80% de precisión. Sin embargo, estos números no son seguros si cae en el grupo 20%, que podría ser identificado erróneamente como terrorista o pedófilo. No sólo eso: la ciencia detrás de todo esto es muy cuestionable. Alexander Todorov, profesor de psicología de Princeton, dijo al Post que “la evidencia de que estos juicios son precisos es extremadamente débil”. La empresa también se niega a hacer públicos sus clasificadores. No es difícil ver cómo esto puede tener consecuencias desastrosas.
Posibles soluciones
Una empresa que está abordando abiertamente la cuestión del sesgo de la IA es IBM. se ha desarrollado nueva metodología diseñado para reducir la discriminación existente en un conjunto de datos. El objetivo es que una persona tenga una posibilidad similar de “recibir una decisión favorable”, por ejemplo para un préstamo, independientemente de su pertenencia a un grupo “protegido” o “no protegido”.
Sin embargo, la investigadora de IBM Francesca Rossi también ha hecho hincapié en los cambios que la propia industria debe realizar. Según ella, el desarrollo de la inteligencia artificial debe ocurrir en entornos multidisciplinarios y con un enfoque multicultural. También cree que cuanto más aprendemos sobre el sesgo de la IA, más aprendemos sobre el nuestro.
Francesca Rossi también es bastante optimista: afirma que el sesgo de la IA podrá eliminarse en los próximos cinco años. Sin embargo, no es fácil estar de acuerdo con ella. Primero debe ocurrir un cambio cultural significativo en la industria tecnológica. Sin embargo, el enfoque multidisciplinario que propone podría impulsar este cambio. También es muy necesario: muchos desarrolladores e investigadores no están capacitados formalmente en ética o campos relacionados.
Otro paso hacia la solución del problema del sesgo de la IA podría ser su “democratización”: poner los algoritmos a disposición del público, para que pueda estudiarlos, comprenderlos y utilizarlos mejor. Empresas como AbiertoAI ya están en este camino. Sin embargo, no es probable que quienes protegen su propiedad intelectual sigan este ejemplo.
Como puede ver, no hay una respuesta fácil. Sin embargo, una cosa es segura: no debemos confiar ciegamente en la tecnología y esperar que resuelva todos nuestros problemas. Como todo lo demás, no se creó en el vacío. Es un producto de la sociedad y, por lo tanto, hereda todos nuestros prejuicios y prejuicios humanos.
¿Que opinas sobre el asunto? Háganos saber en los comentarios.