Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

IA para los buenos: lecciones prácticas para la IA y el riesgo cibernético

Los actores de amenazas son los primeros en adoptarlo. La ciberdefensa está repleta de incertidumbres, pero una dinámica en la que puede estar seguro es que los actores de amenazas aprovecharán todo lo disponible para explotar un objetivo. En 2023, esto significa el aumento de los ataques basados ​​en inteligencia artificial, desde scripts de ingeniería social generados por IA hasta poderosas automatizaciones diseñadas para encontrar y explotar vulnerabilidades y propagarse lateralmente a través de sistemas y redes.

Por lo tanto, los equipos de seguridad deben estar preparados para enfrentar el desafío de las amenazas a escala de la nube tanto a nivel técnico como organizacional. Requiere anticipar amenazas que existen más allá de las vulnerabilidades técnicas, incluidas, por ejemplo, la ingeniería social y los ataques DDoS.. Esto es parte del desafío de la ciberseguridad moderna: la superficie de ataque comprende no sólo la totalidad de la infraestructura de TI, sus puntos finales y todos los datos que utiliza y almacena, sino también a sus usuarios. Es demasiado grande para gestionarlo manualmente de forma eficaz.

Según una investigación de Rezilión, dos tercios de los profesionales encuestados informaron una acumulación de más de 100.000 vulnerabilidades. Aunque la mayoría de ellos no tendrán un impacto real, muchos sí lo tendrán. De acuerdo a un informe de Vulcan Cyber, más del 75 por ciento de los encuestados se vieron afectados por una vulnerabilidad de seguridad de TI. Como el ataque de ransomware WannaCry de 2017 revelólos actores de amenazas han tenido durante mucho tiempo la capacidad de aprovechar la IA para identificar y explotar estas debilidades para propagarse a través de cientos de miles de sistemas, y su capacidad solo ha crecido en los años intermedios.

Investigación de ciberarco muestra que las amenazas habilitadas por la IA son básicamente un hecho entre los profesionales de la seguridad ahora: más del 90 por ciento de los encuestados espera que estas amenazas afecten a su organización en 2023. La pregunta es: ¿Cuál es el riesgo real que enfrentan las organizaciones debido a la IA maliciosa? realizan la clasificación y ¿cómo pueden los equipos azules aprovechar la IA de manera efectiva para sus propios fines?

ChatGPT no puede hackearte

ChatGPT ha generado una gran cantidad de titulares recientes. No es inmerecido: ofrece una funcionalidad extraordinaria en una amplia gama de tareas, tareas que a veces completa con tal facilidad que ofrece un producto casi indistinguible del de un humano competente. Pero escribir código no es una de esas tareas.

ChatGPT puede entregar código existente e incluso funcional, pero no puede producir código con un nivel notable de sofisticación, lo que requiere un grado de creatividad e imaginación que no posee. Si desea una forma eficiente de raspar la web y cortar y pegar bloques de código relevantes que funcionen como un programa cohesivo en respuesta a un mensaje en particular, la IA generativa se lo brindará de la misma manera que lo hará un estudiante de programación (quizás más rápido). Sin embargo, no puede igualar el talento de un programador humano en ninguno de los lados de la ecuación: equipo de seguridad o actor de amenazas. Esto cambiará con el tiempo, especialmente a medida que los actores maliciosos desarrollen clones de motores de IA generativa sin salvaguardas. Hemos visto el potencial de Alucinaciones del paquete de IA también, donde los actores de amenazas siembran materiales maliciosos en sentido ascendente para que la propia IA generativa los distribuya a usuarios desprevenidos. Sin embargo, el peligro de una IA generativa que pueda ofrecer y ejecutar rutas de ataque sofisticadas de manera más confiable que los humanos está firmemente en el horizonte.

La superficie de ataque más grande del mundo

La vulnerabilidad más importante para todas las organizaciones del mundo, universalmente, son sus usuarios. Más del 50 por ciento de los dispositivos personales estuvieron expuestos a un ataque de phishing móvil en 2022, según mirador. Y aunque ChatGPT no puede escribir código como un humano, puede escribir correos electrónicos mejor que otros.

Una protección accidental contra ataques de phishing (una última línea de defensa no planificada) es la gramática de la propia nota de phishing. Enviados en volumen por actores de amenazas, tal vez en su idioma no nativo, los señuelos de phishing que podrían falsificar efectivamente un dominio o remitente a menudo generan sospechas basadas en su uso de lenguaje agramatical o no normativo. ChatGPT borra este desequilibrio ventajoso. Uno de sus casos de uso más eficaces es la redacción de mensajes lógicos y gramaticales en lenguaje sencillo. Estos funcionan dentro de un marco estándar de reglas en su mayoría inflexibles y no requieren el ingenio técnico que requiere un código eficaz. Simplemente necesita entregar un mensaje sin función técnica directa que cumpla con los estándares normativos de uso de mayúsculas, puntuación y elección de palabras, todos los cuales están disponibles en abundancia en su conjunto de datos de una manera que no lo están los enfoques novedosos para acceder a sistemas seguros.

Es importante tener en cuenta que el propio ChatGPT tiene algunas salvaguardas cuando se trata de este tipo de actividad. Si le pide directamente que redacte un señuelo de phishing, se negará. Desafortunadamente, también es trivialmente fácil eludir esta protección reformulando el mensaje.

Según fuentes del sector, más de 3 En 2021 se enviaron mil millones de correos electrónicos de phishing, un volumen que solo ha crecido en los años intermedios. A esta escala, incluso un aumento marginal en la eficacia de los señuelos de phishing puede tener un impacto tremendo.

IA para los buenos

Para aprovechar al máximo las tecnologías de la nube que ahora son imperativos competitivos, las organizaciones deben invertir en mitigar las amenazas a escala de la nube, una perspectiva que podría parecer más desalentadora a medida que pasan los años. Pero IBM investigación muestra que el 93 por ciento de las organizaciones encuestadas están utilizando o considerando el uso de IA en la gestión de su seguridad cibernética, lo que indica que reconocen la amenaza y están tomando medidas para reforzar las defensas.

Cuando hablamos de amenazas a escala de la nube, toman la misma forma que las ventajas de la nube: un enorme volumen de datos. Es ventajoso cuando esos datos se pueden combinar en busca de patrones y conocimientos rentables. Es una desventaja cuando oculta vectores de amenazas o deja datos expuestos.

La ciberseguridad moderna consiste esencialmente en gestionar datos que crean riesgos cibernéticos. Las organizaciones implementan conjuntos de escáneres en múltiples plataformas (y superficies de ataque). Estos son muy efectivos para identificar vulnerabilidades, pero dan como resultado una gran cantidad de señales y puntos de datos indiferenciados y duplicados que abruman a los equipos de seguridad muy humanos. El resultado es la incapacidad de escalar para abordar el creciente riesgo cibernético.

Para agravar el problema está el hecho de que la gravedad técnica de cada vulnerabilidad no siempre se corresponde con el peligro que representa para una organización específica: una vulnerabilidad grave en un sistema no esencial sin acceso lateral a operaciones críticas para el negocio no presenta un problema como una amenaza menos grave que otorga acceso de administrador no autorizado a las cuentas por pagar. Aquí es donde La IA juega un papel esencial en defensa: aumentando la capacidad del equipo de seguridad para auditar de manera eficiente volúmenes masivos de datos para que puedan implementar recursos para remediar amenazas que representan una amenaza genuina para el negocio mismo. Esto significa deduplicar datos, reducir el ruido, introducir un contexto más profundo para la priorización de vulnerabilidades e integrar la remediación como una parte consistente del proceso. ciclo de vida de gestión de vulnerabilidades.