A medida que las herramientas de IA generativa continúan expandiéndose, se abren nuevas puertas para que los estafadores aprovechen las debilidades. ¿Ya has experimentado con herramientas de IA generativa como ChatGPT? Desde superar el bloqueo del escritor hasta redactar textos publicitarios, crear itinerarios de viaje e iniciar fragmentos de código, hay algo para todos. Lamentablemente, «todos» incluye a los delincuentes.
Los ciberdelincuentes son los primeros en adoptarlo. Si hay una nueva y brillante tecnología que probar, puedes apostar que los delincuentes explorarán cómo usarla para cometer delitos. Cuanto antes puedan explotar esta tecnología, mejor: esto les dará una ventaja a la hora de establecer defensas para bloquear sus nefastas actividades. Si la tecnología ayuda a aumentar la escala o la sofisticación de los ataques criminales, es aún más atractiva. No es de extrañar que a los ciberdelincuentes les gusten herramientas como ChatGPT.
Hay muchos ejemplos de usos problemáticos de la IA generativa, desde códigos maliciosos hasta la composición de correos electrónicos de phishing y la resolución de CAPTCHA. Sí, CAPTCHA: las comprobaciones que se supone que confirman que eres un ser humano y no un robot. Irónico, ¿no?
Recientemente, los CAPTCHA utilizaron ChatGPT en ingeniería social para engañar a un humano para resolver su desafío. En este caso, la IA fingió tener una discapacidad visual que le dificultaba ver las imágenes, supuestamente legitimando su necesidad de asistencia.
Eso significa que no sólo nos enfrentamos a la IA; Nos enfrentamos a una IA que utiliza humanos para superar las barreras.
El uso de CAPTCHA, pines móviles y más introduce fricciones innecesarias para los clientes legítimos, no solo para los malos actores. Tendemos a ver que por cada dólar que una empresa pierde debido a transacciones falsas, rechazan 30 dólares de buenos clientes que son bloqueados o rechazados injustamente. Es por eso que los líderes del comercio digital están abandonando las tecnologías tradicionales y heredadas en favor de la inteligencia artificial y los sistemas de aprendizaje automático que pueden identificar la identidad exacta (buen cliente, mal actor o bot) detrás de cada interacción.
Este enfoque garantiza que los clientes legítimos tengan una experiencia sin fricciones durante todo el proceso de compra y, al mismo tiempo, bloquea la actividad maliciosa de bots y estafadores.
Afrontar el desafío del presente
La combinación de IA generativa e ingeniería social es preocupante. Los estafadores, que ya están acostumbrados a incorporar ingeniería social en sus esquemas, pueden aprovechar esta posibilidad e intentar utilizar IA generativa para ampliar sus ataques. Cualquier debilidad en la IA podría compensarse engañando a los humanos para que las cubran cuando sea necesario.
Antes de entusiasmarse con el uso de la IA para vencer a la IA (según el principio de hacer que un ladrón atrape a un ladrón), no se entusiasme demasiado; Mira otro ejemplo de Fallo del CAPTCHA para ver qué puede salir mal.
La IA aún no tiene la inteligencia de los humanos; en cambio, se centra en la capacidad de procesar y utilizar grandes cantidades de información. Las soluciones deben ser creativas, no formuladas y nuevas, no fusiones de viejas ideas.
Mi perspectiva, basada en el trabajo con y contra los bots durante muchos años, es que las soluciones a corto plazo deben basarse en ángulos tecnológicos innovadores, encontrando debilidades específicas en los servicios específicos de IA generativa que existen actualmente y asegurándose de que se exploten. y se impide que las IA sean utilizadas indebidamente para cometer fraude.
Prepárese ahora para lo que viene
Ahora es el momento de empezar a pensar hacia dónde podrían ir las cosas y comenzar a explorar las herramientas y los cambios en los procesos y actitudes que podríamos necesitar para protegernos contra nuevos tipos y métodos de ataques.
Ya es hora de mirar más allá de los ataques a los que estamos acostumbrados. Se han visto en la naturaleza deepfakes que utilizan las voces de los directores ejecutivos en llamadas telefónicas y llamadas de WhatsApp. Las imágenes y vídeos deepfake se han vuelto populares. Con la gran cantidad de datos a su disposición en Internet, la IA generativa tiene todo el material que podría necesitar para ayudar a los estafadores a escalar ataques utilizando este tipo de trucos antes de que la mayoría de la gente se dé cuenta de que eso es un riesgo.
Dado que los estafadores se han diversificado en todo el proceso de compra del cliente, antes, durante y después del pago (enfocándose en los flujos posteriores al pago, como el fraude de devoluciones y los campos previos al pago, como la tecnología publicitaria), parece probable que la IA generativa también juegan un papel allí.
Creo que las soluciones más efectivas serán relativamente limitadas en el corto plazo. Ésa es la forma más rápida y eficaz de afrontar la amenaza antes de que se convierta en un problema grave.
Tendremos que ser mucho más estratégicos a largo plazo. La IA generativa cambiará las opciones y el trabajo diario de los estafadores, al igual que en otras industrias. Y al igual que ocurre con otras industrias, ese momento de cambio futuro no está lejos.
Cuando se trata de delincuencia, las posibilidades de las herramientas de IA generativa parecen ser ilimitadas. Afortunadamente, también lo es la capacidad humana de ingenio para prevenir el delito. Es hora de ponernos a pensar.
.