El efecto de la tecnología en la cultura y la sociedad puede ser sutil. Cuando se nos presenta un nuevo juguete o servicio que nos hace la vida más fácil, rápidamente lo adoptamos y lo normalizamos sin pensar en las posibles consecuencias que solo emergen años después.
La privacidad fue la primera víctima
Tomemos como ejemplo la privacidad personal. Cuando Facebook fue sacudida por el escándalo de Cambridge Analytica, puede haber dominado los titulares y haber incendiado las charlas, pero en medio de toda la indignación, lo que me pareció la reacción más común fuera de los expertos de los medios y los entusiastas de la tecnología fue la indiferencia.
Pero ¿por qué la gente se encogía de hombros y decía “¿y qué?” a una filtración tan masiva de nuestra información personal? ¿A su uso en publicidad de mala calidad y para manipular los resultados de elecciones importantes?
Quizás porque los procesos técnicos detrás de todo esto son demasiado complejos para que la mayoría de las personas tengan una idea clara de cómo sucedió exactamente. Los acuerdos de licencia de usuario para todos los diferentes servicios que una persona puede utilizar son densos y opacos, y no tenemos tiempo para leerlos, y mucho menos comprenderlos todos. De hecho, un estudio ha demostrado que para leer todas las políticas de privacidad que encuentra, necesitaría tomarse un mes libre del trabajo cada año.
Sin embargo, muchos de nosotros aceptamos este trato fáustico de todos modos y renunciamos a nuestra privacidad porque, digamos, Facebook o los servicios de Google (entre otros), eran demasiado buenos para no utilizarlos. Además, todos nuestros amigos (o nuestros competidores, en un contexto empresarial) lo estaban usando y ¿quién quiere quedarse atrás?
La cuestión de cómo llegamos aquí aún se está explorando, pero el hecho es que la privacidad personal en 2018 ya no es lo que solía ser. Las expectativas son diferentes, y muchos de nosotros estamos perfectamente felices de entregar información a las corporaciones a un nivel de intimidad que habría escandalizado a las generaciones anteriores. Es el precio que pagamos por entrar al mundo de la tecnología y, en su mayor parte, estamos felices de hacerlo.
Puedes instar a las personas a usar VPN y chatear en Signal todo lo que quieras, pero en su mayor parte, el cambio cultural ya ocurrió: proteger la privacidad no es una preocupación para la mayoría de las personas. No basta con que tomen medidas activas, por mucho que uno pueda quejarse.
La responsabilidad personal será lo siguiente, gracias a la IA
Las historias de terror sobre la IA suelen invocar el temor de que se vuelva consciente y de alguna manera se vuelva contra la humanidad. Pero la ansiedad más realista es que la “inteligencia” de las máquinas no puede realmente abarcarnos a todos. Como cualquier herramienta, sirve para hacer una tarea más fácil, más rápida y más eficiente. Pero cuanto más alejada está esa herramienta de una mano humana que la guíe, más confusa se vuelve la cuestión de la responsabilidad personal.
La privacidad es una cosa, pero la responsabilidad se vuelve seria y puede ser, literalmente, una cuestión de vida o muerte. Cuando algo impulsado por la IA sale mal y causa daño, ¿quién asume la responsabilidad? ¿Los ingenieros de software, incluso si la máquina ‘aprendió’ sus métodos independientemente de ellos? ¿La persona que presionó el botón de “encendido”? ¿El usuario que firmó un flujo ahora omnipresente de densa jerga legal sin leerla para obtener acceso rápido a un servicio?
Los coches autónomos están a la vanguardia de este dilema ético. Por ejemplo, a un vehículo autónomo desarrollado por Nvidia se le enseña a conducir a través de un Sistema de aprendizaje profundo que utiliza datos de entrenamiento recopilados por un conductor humano.. Y hay que reconocer que la tecnología es asombrosa. Puede mantenerse en su carril, girar, reconocer señales, etc.
Todo bien, siempre y cuando haga lo que se supone que debe hacer. Pero, ¿qué pasa si un coche autónomo decide de repente convertirse en un muro o caer en un lago? ¿Qué pasa si se desvía para evitar chocar contra un peatón, pero termina matando a su pasajero en el proceso? ¿El coche tendrá su día en los tribunales?
Tal como están las cosas ahora, podría ser imposible descubrir por qué o cómo ocurren los accidentes, ya que la IA no puede explicarnos sus elecciones e incluso los ingenieros que la configuraron no podrán seguir el proceso detrás de cada decisión específica. . Sin embargo, en algún momento se exigirá rendición de cuentas. Podría ser que este problema mantenga a los vehículos autónomos fuera del mercado hasta que se resuelva perfectamente. O podría ser que la tecnología se vuelva demasiado interesante, tan conveniente y tan rentable, que la lancemos primero y hagamos las preguntas difíciles después.
Imaginar a la IA involucrada en un accidente automovilístico es un ejemplo dramático, pero habrá más áreas de nuestras vidas en las que estaremos tentados a ceder la responsabilidad a la máquina. La IA diagnosticará nuestras enfermedades y “decidirá” quién vive o muere, realizará llamadas comerciales multimillonarias y tomará decisiones tácticas en zonas de guerra. Ya hemos tenido problemas con esto, como Una IA clasifica erróneamente a las personas con asma como de bajo riesgo diseñado para predecir la neumonía.
A medida que la IA se vuelva más avanzada, probablemente tomará las mejores decisiones…99.9% del tiempo. Ese otro 00,01% de las veces, tal vez simplemente nos encojamos de hombros como lo hicimos con el Facebook escándalo de privacidad.
Los asistentes y aplicaciones inteligentes asumirán más responsabilidades
Acerquémonos un poco más al individuo. En Google I/O, el coloso de Mountain View mostró un par de formas en que la IA puede hacernos la vida un poco más fácil. Los asistentes virtuales se han vuelto populares en el último año y se han convertido en una parte clave de los hogares de muchos estadounidenses. La demostración de Duplex de Google mostró cómo puedes delegar la reserva de citas al Asistente, haciendo que el robot haga una llamada telefónica por ti y reserve un corte de pelo o una reserva en un restaurante. Google también quiere utilizar Duplex para centros de llamadas automatizados, evocando un escenario divertido en el que dos robots conversan con lenguaje humano.
Suena genial, ¿verdad? Excepto que, bueno, hay un cierto nivel de confianza que le das a tu asistente virtual cuando lo dejas actuar como tu proxy de esta manera. La comunicación sobre estas tareas puede parecer sencilla, pero en realidad está plagada de problemas potenciales.
Por ejemplo, cuando hablamos entre nosotros, captamos señales sutiles en nuestras voces y actitudes para tener una impresión, de persona a persona, de con quién estamos hablando y actuar apropiadamente. Aún así, sabes lo fácil que es ofender mortalmente a alguien por accidente y provocar una discusión o un escándalo.
Sin embargo, ¿dónde recae la responsabilidad cuando un asistente virtual dice algo que se percibe como ofensivo o vergonzoso? Si de alguna manera se impide a los asistentes virtuales decir cosas potencialmente ofensivas, incluso irónicamente o como broma o crítica, ¿se está censurando esa “tu” voz? Se necesitará mucho más que ‘ums’ y ‘ahs’ para que la IA realmente pueda hablar por nosotros.
Mire Google Duplex en acción en la demostración de Google I/O 2018:
Otro gran tema, tanto en Google I/O como AppleLa WWDC de este año fue un software que gestionaba su propio uso, en nombre del “bienestar digital”. La idea bastante condescendiente es que no dejaremos nuestros dispositivos para salir a oler las rosas a menos que nuestro dispositivo nos lo recuerde.
Los usuarios pueden establecer preferencias para este tipo de cosas, por supuesto, y aun así creo que tener nuestro bienestar y gestión del tiempo manejados por IA no está muy lejos, con un asistente inteligente que gestione nuestra rutina de salud, trabajo y entretenimiento de acuerdo con lo que se aprende de nuestros hábitos, estado físico, entorno, etc. Y podría ser muy positivo para muchos, aunque personalmente ese nivel de microgestión me parece una pesadilla.
Por supuesto, los humanos se resistirán a traspasar la responsabilidad a la IA a menos que se pueda obtener una ventaja real. Y habrá ventajas… en comodidad, productividad, entretenimiento, etc. Las ventajas serán demasiado buenas para resistirlas, y no soy alguien que defienda la tecnología prohibida. Adoptaremos la tecnología de inteligencia artificial por sus beneficios y luego ajustaremos nuestras expectativas sociales en torno a su realidad.
Nos guste o no, nuestra sociedad se adaptará para encontrar un lugar para la IA
La clásica historia de terror sobre IA suele detallar una máquina superinteligente que se vuelve consciente de sí misma y se vuelve contra sus creadores. Si bien la malvada IA es tan realista como los vampiros, los hombres lobo u otros animales de terror, nuestra lucha con la IA será real pero más mundana, el equilibrio entre conveniencia y responsabilidad en innumerables aspectos de nuestra vida diaria.
Pero no hay conciencia detrás de la inteligencia artificial tal como la conocemos hoy en día, ni yo ni mente. No estamos construyendo dioses de la IA, sino más bien fenómenos que se parecen más a los sistemas complejos pero irreflexivos de la naturaleza. Cosas de las que dependemos y aprovechamos, pero que no controlamos.
En el peor de los casos, quejarse o cuestionar los métodos de los algoritmos puede resultar tan absurdo como cuestionar las mareas o el viento. En el mejor de los casos, el desarrollo y el consumo responsables mantendrán la responsabilidad final en manos de seres humanos que puedan confiar unos en otros, en lugar de echarle la culpa a la caja negra.
¿Qué opinas del papel que desempeñará la IA en nuestra vida diaria? ¿Confiamos ya en algoritmos con demasiada responsabilidad?