Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

Contrarrestar el aumento de los delincuentes de IA

A medida que las herramientas de IA generativa contin√ļan expandi√©ndose, se abren nuevas puertas para que los estafadores aprovechen las debilidades. ¬ŅYa has experimentado con herramientas de IA generativa como ChatGPT? Desde superar el bloqueo del escritor hasta redactar textos publicitarios, crear itinerarios de viaje e iniciar fragmentos de c√≥digo, hay algo para todos. Lamentablemente, “todos” incluye a los delincuentes.

Los ciberdelincuentes son los primeros en adoptarlo. Si hay una nueva y brillante tecnolog√≠a que probar, puedes apostar que los delincuentes explorar√°n c√≥mo usarla para cometer delitos. Cuanto antes puedan explotar esta tecnolog√≠a, mejor: esto les dar√° una ventaja a la hora de establecer defensas para bloquear sus nefastas actividades. Si la tecnolog√≠a ayuda a aumentar la escala o la sofisticaci√≥n de los ataques criminales, es a√ļn m√°s atractiva. No es de extra√Īar que a los ciberdelincuentes les gusten herramientas como ChatGPT.

Hay muchos ejemplos de usos problem√°ticos de la IA generativa, desde c√≥digos maliciosos hasta la composici√≥n de correos electr√≥nicos de phishing y la resoluci√≥n de CAPTCHA. S√≠, CAPTCHA: las comprobaciones que se supone que confirman que eres un ser humano y no un robot. Ir√≥nico, ¬Ņno?

Recientemente, los CAPTCHA utilizaron ChatGPT en ingenier√≠a social para enga√Īar a un humano para resolver su desaf√≠o. En este caso, la IA fingi√≥ tener una discapacidad visual que le dificultaba ver las im√°genes, supuestamente legitimando su necesidad de asistencia.

Eso significa que no sólo nos enfrentamos a la IA; Nos enfrentamos a una IA que utiliza humanos para superar las barreras.

El uso de CAPTCHA, pines móviles y más introduce fricciones innecesarias para los clientes legítimos, no solo para los malos actores. Tendemos a ver que por cada dólar que una empresa pierde debido a transacciones falsas, rechazan 30 dólares de buenos clientes que son bloqueados o rechazados injustamente. Es por eso que los líderes del comercio digital están abandonando las tecnologías tradicionales y heredadas en favor de la inteligencia artificial y los sistemas de aprendizaje automático que pueden identificar la identidad exacta (buen cliente, mal actor o bot) detrás de cada interacción.

Este enfoque garantiza que los clientes legítimos tengan una experiencia sin fricciones durante todo el proceso de compra y, al mismo tiempo, bloquea la actividad maliciosa de bots y estafadores.

Afrontar el desafío del presente

La combinaci√≥n de IA generativa e ingenier√≠a social es preocupante. Los estafadores, que ya est√°n acostumbrados a incorporar ingenier√≠a social en sus esquemas, pueden aprovechar esta posibilidad e intentar utilizar IA generativa para ampliar sus ataques. Cualquier debilidad en la IA podr√≠a compensarse enga√Īando a los humanos para que las cubran cuando sea necesario.

Antes de entusiasmarse con el uso de la IA para vencer a la IA (seg√ļn el principio de hacer que un ladr√≥n atrape a un ladr√≥n), no se entusiasme demasiado; Mira otro ejemplo de Fallo del CAPTCHA para ver qu√© puede salir mal.

La IA a√ļn no tiene la inteligencia de los humanos; en cambio, se centra en la capacidad de procesar y utilizar grandes cantidades de informaci√≥n. Las soluciones deben ser creativas, no formuladas y nuevas, no fusiones de viejas ideas.

Mi perspectiva, basada en el trabajo con y contra los bots durante muchos a√Īos, es que las soluciones a corto plazo deben basarse en √°ngulos tecnol√≥gicos innovadores, encontrando debilidades espec√≠ficas en los servicios espec√≠ficos de IA generativa que existen actualmente y asegur√°ndose de que se exploten. y se impide que las IA sean utilizadas indebidamente para cometer fraude.

Prep√°rese ahora para lo que viene

Ahora es el momento de empezar a pensar hacia dónde podrían ir las cosas y comenzar a explorar las herramientas y los cambios en los procesos y actitudes que podríamos necesitar para protegernos contra nuevos tipos y métodos de ataques.

Ya es hora de mirar más allá de los ataques a los que estamos acostumbrados. Se han visto en la naturaleza deepfakes que utilizan las voces de los directores ejecutivos en llamadas telefónicas y llamadas de WhatsApp. Las imágenes y vídeos deepfake se han vuelto populares. Con la gran cantidad de datos a su disposición en Internet, la IA generativa tiene todo el material que podría necesitar para ayudar a los estafadores a escalar ataques utilizando este tipo de trucos antes de que la mayoría de la gente se dé cuenta de que eso es un riesgo.

Dado que los estafadores se han diversificado en todo el proceso de compra del cliente, antes, durante y después del pago (enfocándose en los flujos posteriores al pago, como el fraude de devoluciones y los campos previos al pago, como la tecnología publicitaria), parece probable que la IA generativa también juegan un papel allí.

Creo que las soluciones m√°s efectivas ser√°n relativamente limitadas en el corto plazo. √Čsa es la forma m√°s r√°pida y eficaz de afrontar la amenaza antes de que se convierta en un problema grave.

Tendremos que ser mucho más estratégicos a largo plazo. La IA generativa cambiará las opciones y el trabajo diario de los estafadores, al igual que en otras industrias. Y al igual que ocurre con otras industrias, ese momento de cambio futuro no está lejos.

Cuando se trata de delincuencia, las posibilidades de las herramientas de IA generativa parecen ser ilimitadas. Afortunadamente, también lo es la capacidad humana de ingenio para prevenir el delito. Es hora de ponernos a pensar.

.