OpenAI, responsable de ChatGPT, está desarrollando una herramienta para detectar imágenes generadas por inteligencia artificial con un alto grado de precisión. La herramienta, que se sometió a pruebas internas antes de salir a bolsa, ya es “99% confiable”.
La información fue revelada por Mira Murati, directora de tecnología de ChatGPT y generador de imágenes DALL-E, durante la conferencia Tech Live del Wall Street Journal en Laguna Beach, California. Este anuncio fue revelado junto al CEO de OpenAI, Sam Altman, según informó Bloomberg.
El progreso de OpenAI
Debido al rápido crecimiento de las plataformas de IA generativa, también está aumentando la necesidad de herramientas de detección. Para identificar noticias falsas y contenidos que violen los derechos de autor, varias plataformas están intentando desarrollar formas de detectar el uso de la IA.
La propia OpenAI lanzó una herramienta en enero para identificar contenido de texto creado por IA, pero el recurso resultó ser inexacto y fue archivado en julio. La empresa afirmó que está trabajando para mejorar este software.
La creación de una herramienta para identificar imágenes creadas por IA, que ya ha demostrado una fiabilidad del 99% en sus pruebas internas, supone un gran avance para la empresa. El calendario de lanzamiento público no ha sido publicado.
Durante la conferencia, los ejecutivos de OpenAI también dieron pistas sobre el modelo de IA que seguirá a GPT-4 y posibles mejoras. En julio, la startup presentó una solicitud de marca registrada para “GPT-5” en la Oficina de Patentes y Marcas de Estados Unidos.
Cuando se le preguntó sobre la posibilidad de GPT-5 Al no generar ya las llamadas “alucinaciones” (información inventada que los modelos anteriores solían ofrecer), Murati declaró un enigmático “Quizás”.
“Ya veremos. Hemos avanzado mucho en el tema de las ‘alucinaciones’ con GPT.4pero no estamos donde debemos estar”, dijo.