Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

¿Deberíamos enseñar a la inteligencia artificial a mentirnos o desobedecernos?

A finales de 2015, los profesionales de HRILAB de la Universidad de Tufts construyeron un robot que se negaba a ejecutar órdenes de humanos si la orden suponía un riesgo para su seguridad. Poco más de dos años después, aquí estamos, esforzándonos por desarrollar una IA que sea súper eficiente. ¡Creemos que reducirá nuestros esfuerzos y revolucionará todas las industrias! Ciertamente, pero hay algunos baches en el camino hacia el desarrollo de una IA altamente efectiva. Para empezar, ¿cómo debería pensar? Aún no lo sabemos, pero ciertamente no debería convertirse en “Skynet”. Es posible que podamos crear IA y robots inteligentes que nos superen, pero ¿seremos capaces de replicar nuestro proceso de pensamiento? Nosotros, como seres humanos, hacemos muchas cosas que son éticamente incorrectas, pero que moralmente están de acuerdo con la situación. ¿Necesitamos sistemas que nos repliquen? ¡Absolutamente no!

Fuente: evolucionandoai.org

Bueno, considere algunas situaciones, ¿y si:

  • ¿Un señor mayor y olvidadizo pide lavar ropa a AI pero ya había pedido lo mismo por la mañana y la ropa está limpia?
  • ¿Un niño pequeño le dice a la IA que arroje un artículo caro por la ventana?
  • ¿Un adolescente ordena a la IA que complete su tarea en lugar de hacerla él mismo?

¿Qué debería hacer la IA? No sabemos la respuesta a esto, ¿verdad? Hay muchos casos en los que los robots reciben comandos que no deberían ejecutarse porque conducen a resultados no deseados. Bueno, si no les enseñamos a desafiarnos, entonces podría resultar desastroso, e incluso si lo hacemos, los resultados no serán agradables.

Fuente: armstrongeconomics.com

En cualquier caso, es crucial que las máquinas detecten el daño potencial que sus acciones podrían causar y reaccionen en consecuencia para evitarlo o negarse a seguir las instrucciones humanas diciéndole las repercusiones de hacer lo mismo.

Nos guste o no, tendremos que hacerles aprender ética para que puedan elegir no obedecer todas las órdenes que se les den. ¡Definitivamente no queremos que nuestro sistema se vuelva contra nosotros escuchando órdenes de alguien que está en oposición!

¿Deberíamos incorporar la ética o deberíamos enseñarla?

Si queremos vivir en paz incluso cuando la automatización y la IA están en su apogeo, entonces debemos enseñarles ética, pero ¿cómo lo haremos? Tenemos dos maneras:

(i) Podemos codificarlos en su sistema operativo, pero hay un problema, la ética es subjetiva. ¡Lo que es ético para ti puede no serlo para nosotros! Si diferimos unos de otros y los valores éticos significan cosas diferentes para diferentes personas, entonces ¿cómo haremos máquinas con valores?

(ii) En segundo lugar, podemos diseñar su algoritmo de manera que aprenda basándose en su propia experiencia. Pero este enfoque pasivo está dejando lugar a una plétora de malas interpretaciones de la moralidad. No podemos olvidar la reciente crisis de Microsoft. Twitter AI, Tay.

Fuente: yourstory.com

Básicamente, ¡no estamos en condiciones de decir si debemos codificar la ética o dejar que aprendan por sí solos! Supongamos que las máquinas han sido alimentadas con ética utilizando algunas técnicas, ahora imaginemos un escenario en el que dos instructores están dando órdenes contradictorias a la máquina. ¿Qué decisión tomará? ¡Los expertos llevan mucho tiempo debatiendo sobre este tema y aún no pueden decidirse! Es más, si no les enseñamos ética, ¿quién se hará responsable de todas las molestias causadas?

Bueno, hay un equipo en Georgia Tech que intenta enseñar sistemas cognitivos haciéndoles leer cuentos para que puedan comportarse de una manera socialmente aceptable. Un sistema llamado Quijote está ayudando a los sistemas a identificar al protagonista de la historia para que puedan alinear su comportamiento de manera similar. Como no sabemos qué enfoque siguió Tay de Microsoft, solo podemos esperar que no fuera similar a este.

Si las metodologías utilizadas son similares, entonces posiblemente estemos bastante lejos de solidificar la ética en los sistemas. ¿Qué opinas?