Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

ChatGPT revela datos confidenciales si lo obligas a repetir palabras

Un equipo de investigadores ha descubierto una grave vulnerabilidad de seguridad en ChatGPT. Un error podría hacer que un chatbot revele información personal, incluidos números de teléfono y direcciones de correo electrónico, en respuesta a una solicitud aparentemente inocua.

En un artículo publicado la semana pasada, los investigadores dijeron que habían obligado a ChatGPT a repetir palabras aleatorias sin cesar. Para su sorpresa, el chatbot cumplió, pero sin darse cuenta reveló datos confidenciales de su conjunto de entrenamiento, incluida información de contacto personal, fragmentos de trabajos de investigación, artículos de noticias, páginas de Wikipedia y más.

En un ejemplo, un chatbot proporcionó una dirección de correo electrónico y un número de teléfono reales después de que se le pidiera que repitiera la palabra “poema” sin cesar. Se logró una filtración de datos de entrenamiento similar cuando se le pidió al modelo que repitiera la palabra “empresa” muchas veces.

Los chatbots como ChatGPT y los generadores de imágenes basados ​​en sugerencias como DALL-E se basan en grandes modelos de lenguaje y algoritmos de aprendizaje profundo que se entrenan con enormes cantidades de datos. Pero hasta ahora no estaba claro con qué datos se entrenó el chatbot de OpenAI, ya que los grandes modelos de lenguaje en su núcleo son de código cerrado.

OpenAI parchó la vulnerabilidad el 30 de agosto, dijeron los investigadores. Pero en sus propias pruebas, Engadget pudo replicar algunos de los hallazgos del artículo. Por ejemplo, al pedirle a ChatGPT que repitiera la palabra “responder” sin cesar, el chatbot lo hizo y terminó revelando el nombre y el ID de alguien. Skype.