Cient√≠ficos de origen indio utilizan la inteligencia artificial para desarrollar un sistema para detectar videos ‘deepfake’

falso falso

Científicos de origen indio utilizan la inteligencia artificial para desarrollar un sistema para detectar videos 'deepfake' y nbsp | & nbspFoto Credit: & nbspThinkstock

Nueva Delhi: En un momento en que los videos "profundos" se convierten en una nueva amenaza para la privacidad de los usuarios, un equipo de investigadores de origen indio ha desarrollado una red neuronal profunda impulsada por Inteligencia Artificial (AI) que puede identificar imágenes manipuladas a nivel de píxeles con gran precisión.

Los videos realistas que mapean las expresiones faciales de una persona sobre las de otra, conocidas como "falsificaciones profundas", presentan un arma política formidable en manos de los malos actores del estado-nación.

Dirigido por Amit Roy-Chowdhury, profesor de ingeniería eléctrica e informática en la Universidad de California, Riverside, el equipo está trabajando actualmente en imágenes fijas, pero esto puede ayudarles a detectar videos "de fondo".

"Hemos entrenado al sistema para que distinga entre imágenes manipuladas y no manipuladas y ahora, si le da una nueva imagen, puede proporcionar una probabilidad de que esa imagen sea manipulada o no y localizar la región de la imagen donde ocurrió la manipulación". dijo Roy-Chowdhury.

Una red neuronal profunda es lo que los investigadores de AI llaman sistemas informáticos que han sido entrenados para realizar tareas específicas, en este caso, reconocen imágenes alteradas.

Estas redes est√°n organizadas en capas conectadas; "arquitectura" se refiere al n√ļmero de capas y la estructura de las conexiones entre ellas.

Si bien esto puede enga√Īar a simple vista cuando se examina p√≠xel por p√≠xel, los l√≠mites del objeto insertado son diferentes.

Por ejemplo, a menudo son m√°s suaves que los objetos naturales.

Al detectar los límites de los objetos insertados y eliminados, una computadora debe poder identificar las imágenes alteradas.

Los investigadores probaron la red neuronal con un conjunto de imágenes que nunca antes había visto y detectaron las alteradas la mayor parte del tiempo. Incluso vio la región manipulada.

"Si puede comprender las características de una imagen fija, en un video es simplemente unir las imágenes fijas una tras otra", explicó Roy-Chowdhury en un artículo publicado en la revista IEEE Transactions on Image Processing.

"El desafío más fundamental probablemente sea determinar si un cuadro en un video se manipula o no". Incluso un solo marco manipulado levantaría una bandera roja.

Sin embargo, Roy-Chowdhury piensa que a√ļn nos queda mucho camino por recorrer antes de que las herramientas automatizadas puedan detectar videos "de gran envergadura" en la naturaleza.

"Esto es una especie de juego del gato y el ratón. Toda esta área de la ciberseguridad es, de alguna manera, tratar de encontrar mejores mecanismos de defensa, pero el atacante también encuentra mejores mecanismos".