El arte imita la vida, eso todos lo sabemos. Pero ¿qué pasa si el arte imita tu vida personal, tu imagen personal y lo hace tan bien que la línea entre lo real y lo surrealista se desdibuja?
Sin que lo sepamos, nos estamos convirtiendo en modelos de tecnología de inteligencia artificial de última generación que se entrena con terabytes de datos mal filtrados extraídos de toda la web. Estos datos pueden incluir nuestras fotografías personales, imágenes médicas e incluso contenido protegido por derechos de autor (básicamente, cualquier cosa publicada en línea).
VER TAMBIÉN: Windows 12 Fondos de pantalla creados por IA: descárgalos ahora
Modelos de texto a imagen de aprendizaje profundo como DALL-E 2, Midjourney y Stable Diffusion están mejorando en el reconocimiento, interpretación y reutilización de estos datos. Cuando se les proporciona un mensaje de texto, producen imágenes detalladas basadas en lo que han aprendido. Y aunque estas imágenes aún no son perfectas, se están volviendo cada vez más fotorrealistas.
Por inverosímil que parezca, en algún momento un algoritmo puede escupir tu propia imagen… al menos no se puede descartar.
Es cierto que las probabilidades de que todo esto le suceda a una persona normal son bajas. Sin embargo, es mucho más probable que se explote y utilice la imagen de las figuras públicas para engañar a los crédulos. La IA se ha atiborrado de sus datos disponibles públicamente y ya los conoce de frente, por lo que lo único que se le ocurre a un mal actor es un mensaje de texto inteligente.
Actualmente no hay forma de protegerse de ser absorbido por la fuente de datos de la IA. Solo puedes eliminar tus datos de esta clase de arte improvisada post-factum, es decir, después de que ya se hayan utilizado como muestra de entrenamiento para la IA. Para eso tienes que buscarlo en sitios como ¿He sido entrenado?asegúrese de que cumpla con los requisitos, presente una queja y espere lo mejor.
El estado de la tecnología: impresionante y desordenado
Los generadores de imágenes de IA son los nuevos chicos de la cuadra, lo que explica en parte por qué hasta ahora han evitado la regulación. Una de las herramientas más conocidas y avanzadas para crear imágenes a partir de una descripción es DALL-E. El codificador de texto a imagen se lanzó por primera vez en enero pasado a través de una lista de espera y estuvo disponible para el público en general en septiembre. Alguno 1.5 Millones de personas ya han estado utilizando el servicio”, según OpenAI, la empresa detrás de la herramienta.
Junto con una lista de espera, OpenAI ha eliminado las restricciones a la edición de rostros humanos. Pero, a diferencia de la mayoría de sus competidores, OpenAI ha implementado algunas salvaguardias. Por lo tanto, OpenAI dijo que han refinado el algoritmo de filtrado de IA para bloquear contenido sexual, político, violento y de odio. La política de DALL-E también prohíbe a los usuarios cargar “e imágenes sobre las que los usuarios no tienen derechos”.
Sin embargo, parece que no hay forma práctica para que DALL-E haga cumplir esa política en particular más que confiar en la palabra de los usuarios. En un intento por minimizar los riesgos de un posible uso indebido, los desarrolladores dijeron anteriormente que habían afinado el proceso de entrenamiento de DALL-E, “su capacidad para memorizar caras”. Se hizo principalmente para que la IA no produzca imitaciones de figuras públicas ni ayude a ubicarlas en un contexto engañoso. La política de contenido de OpenAI prohíbe específicamente las imágenes de “y advierte contra los intentos de crear imágenes de figuras públicas”. Los usuarios han informado que DALL-E de hecho parece no responder a las solicitudes que mencionan famosos y politicos.
A pesar de su nombre, la maravilla de conversión de texto a imagen de OpenAI no es de código abierto y hay una buena razón para ello. OpenAI sostiene que “
Otros, sin embargo, retomaron la pestaña donde la dejó OpenAI. Inspirándose en DALL-E, un grupo de entusiastas de la IA creó Craiyon (anteriormente DALL-E mini), un generador gratuito de texto a imagen con IA de código abierto. Pero dado que está entrenado en una muestra relativamente pequeña de datos no filtrados de Internet (alrededor de 15 millones de pares de imágenes y el correspondiente texto alternativo: los dibujos resultantes, especialmente los de personas, parecen mucho menos realistas.
Mucho más avanzado que Craiyon y mucho menos restrictivo que DALL-E 2 es Difusión estable un modelo de código abierto lanzado por la startup StabilityAI en agosto de este año. Permite generar imágenes de figuras públicas así como de protestas y accidentes que nunca han ocurrido y que potencialmente pueden ser utilizadas en campañas de desinformación.
Stable Diffusion le otorga permiso para distribuir y vender su producción siempre que acepte una lista de reglas. Por ejemplo, no se puede utilizar el modelo para violar la ley, dañar a menores, difundir información falsa “con el propósito de dañar a otros”, “generar o difundir información de identificación personal que pueda usarse para dañar a un individuo”, brindar asesoramiento médico, infringir derechos de autor, hacerse pasar por personas así como “difamar, menospreciar o acosar a otros de otro modo”. Una vez más, es difícil decir cómo planea la empresa atrapar a los infractores. Al parecer, la carga de señalar el contenido prohibido recae en los forasteros y en las propias víctimas.
Para empeorar las cosas (o mejorarlas, dependiendo de dónde se encuentre) está el hecho de que los modelos de IA se están volviendo cada vez más buenos para imitar el contacto humano y cada vez más cerca de engañar a los observadores humanos. Una controversia estalló después de que un artista no profesional recibiera el primer premio en el concurso de arte digital de la Feria Estatal de Colorado de este año por su trabajo creado con Midjourney, otra herramienta de inteligencia artificial de texto a imagen. No hace mucho el periodista de The Atlantic se levantó TwitterEl avispero después de que usó Midjourney para inventar dos imágenes del teórico de la conspiración Alex Jones para un boletín.
Es una apuesta segura que las herramientas impulsadas por IA mejorarán aún más con el tiempo. Los investigadores detrás del modelo de inteligencia artificial de texto a imagen de Google, Imagen, afirman que ya está superando a la última versión de DALL-E: DALL-E 2 — en precisión y calidad de imagen.
Existe mucha especulación e incertidumbre sobre cómo los sintetizadores de imágenes impulsados por IA afectarán el arte y la realidad tal como la conocemos. Dependerá en gran medida de si los desarrolladores serán capaces de domar a sus bestias de IA, pero también de los datos con los que seguirán deleitándose.
¿De dónde provienen los datos?
Los modelos de IA como DALL-E y Stable Diffusion se entrenan en conjuntos de datos gigantes extraídos de toda la web.
Así, DALL-E 2 se alimentó con 650 millones de pares texto-imagen ya disponibles en Internet. La IA de estabilidad se entrenó principalmente en el subconjunto inglés del Conjunto de datos LAION-5B. LAION 5B (Red abierta de inteligencia artificial a gran escala) es un conjunto de datos de código abierto que contiene 5.6 mil millones de imágenes extraídas de la web, incluidas 2,3 mil millones de pares de imagen-texto en el idioma inglés, lo que lo convierte en el conjunto de datos de imagen-texto de acceso abierto más grande del mundo. Google utilizó su predecesor, LAION-400 (contiene 413 millones de pares) para imagen del tren. Ese conjunto de datos fue creado inicialmente por investigadores en un intento por replicar el conjunto de datos de OpenAI, no abierto al público.
LAION se describe a sí misma como una organización sin fines de lucro con la misión de “”. Si bien la misión es noble, tiene un alto costo para la privacidad. Los datos que los investigadores analizaron para encontrar pares de imagen y texto provienen de Common Crawl, otra organización sin fines de lucro que rastrea la web todos los meses y proporciona petabytes de datos de forma gratuita al público. En sus ToS, Common Crawl establece que “y”.
Teniendo en cuenta de dónde provienen los datos, no sorprende que información de identificación personal (PII), imágenes confidenciales y contenido protegido por derechos de autor puedan introducirse en el conjunto de datos. Ars Technica informó el mes pasado cómo un artista de IA descubrió sus propias fotografías médicas en el conjunto de datos LAION-5B. Las fotografías fueron tomadas por el médico del artista (ya fallecido) y estaban destinadas únicamente al uso privado de ese médico.
Vale la pena señalar que LAION no aloja las imágenes, sino que simplemente proporciona direcciones URL desde las cuales se pueden descargar. Por lo tanto, LAION no se hace responsable de la difusión de sus datos personales o de su trabajo. También significa que, legalmente, estamos chocando contra una pared de ladrillos en un intento por encontrar a los culpables del posible uso indebido de los datos. Otro problema es que no hay forma de optar por no participar en el entrenamiento de IA y hay que hacer todo lo posible para eliminar los datos después del hecho.
¿Cómo eliminar sus datos personales del feed de IA?
Para empezar, para solicitar la eliminación de sus imágenes del conjunto de datos de entrenamiento de IA, debe encontrarlas allí. Puede parecer una tarea difícil dado que hay millones de pares de imagen y texto que analizar. Afortunadamente, ahora existe un atajo para eso. El mes pasado se lanzó una empresa llamada Spawning AI ¿He sido capacitado?, un sitio donde puede buscar en la base de datos LAION-5B alimentándola con una imagen o un mensaje de texto. O simplemente puedes jugar con el algoritmo (cuidado, puede darte resultados muy curiosos).
Si logra encontrar su imagen, deberá completar un formulario de eliminación en la página GDPR de LAION. LAION promete investigar el informe y, si encuentra que dicha imagen infringe la ley de protección de datos de la UE, eliminarla de todos los repositorios de datos bajo su control y de futuras publicaciones.
Spawning también está creando herramientas que permitirían a los artistas “” y “los usuarios pueden solicitar acceso beta a las herramientas en el sitio web de la compañía. Stable Diffusion, que apoya los esfuerzos de Spawning, afirma que construirá “
DALL-E permite a las personas que descubren que su trabajo ha sido utilizado sin su consentimiento denunciar la infracción al Correo abierto AI. En cuanto a la madre de los dragones, la fuente original de gran parte de los datos, Common Crawl, parece incluir solo un apartado de correos donde se puede informar una infracción de derechos de autor.
En resumen, en gran medida nos dejamos a nuestra suerte cuando se trata de asegurarnos de que la IA no absorba nuestros datos. Esto se debe en parte al enigma legal de que cada parte no se responsabilice por el resultado final. En parte, es la forma en que funciona Internet: nunca olvida.
¿La IA escupirá tu doble exacto y podrá “desaprender” cómo te ves?
Como se ve en el ejemplo de las figuras públicas, la IA, con suficiente formación, puede generar imágenes reconocibles de personas reales. Técnicamente, no hay nada que impida que la IA haga el mismo truco con tu imagen.
OpenAI admite que aunque DALL-E 2 No es probable que ocurra lo mismo con otros modelos de IA. La investigación ha demostrado que las imágenes generadas por otra clase de modelos de aprendizaje profundo: las redes generativas adversarias
(GAN): se parecen a personas reales. En el artículo titulado “” los investigadores han demostrado que era posible volver a identificar la fuente identidades que contribuyó a generar imágenes de “personas inexistentes”.
encontraron los investigadores.
En cuanto a si es posible que los modelos de IA desaprendan lo que ya han aprendido sobre usted, dijo el director ejecutivo de Stability AI, Emad Mostaque. Ars Técnica que es. La gran pregunta es si los desarrolladores están dispuestos a hacer todo lo posible para lograrlo, ya que no están obligados a hacerlo.
Resolviendo el problema de la IA. ¿Misión imposible?
No se puede negar que los resultados logrados por estos pioneros de la IA son admirables. El hecho de que algunos de ellos hagan que el código sea de código abierto y, en el caso de Stability AI, lo publiquen bajo una licencia permisiva que no prohíbe el uso comercial, ayudará a los investigadores, creadores y a seguir avanzando.
Sin embargo, esto también puede resultar contraproducente, ya que es extremadamente difícil impedir que los malos actores utilicen el modelo de código abierto. Quizás lo más importante es que actualmente no hay forma de que los artistas y la gente común opten por no convertirse esencialmente en parte de un producto final generado por IA. Además, incluso si queremos eliminar nuestras imágenes de los datos de entrenamiento, debemos confiar en la buena voluntad de las empresas.
Estos problemas afectarán a más personas a medida que estas tecnologías se generalicen. Así, Microsoft ha anunciado recientemente que integrará dos de sus aplicaciones con DALL-E. Una de las aplicaciones es Image Creator, que estará disponible en el buscador Bing de Microsoft y en Edge de forma gratuita.
La situación exige regulación. No sabemos si se trata de una cuidadosa conservación del conjunto de datos, de un mecanismo claro de exclusión voluntaria respetado por todas las partes o de algún otro método de mitigación. Pero tal como están las cosas ahora, los generadores de imágenes a texto con IA siguen siendo una amenaza a la privacidad, que no hará más que crecer.
Credito de imagen: A mitad del viaje