Todo sobre Apple, Android, Juegos Apks y Sitios de Peliculas

La clave para una estrategia de IA generativa eficaz: supervisión humana

Los sistemas de inteligencia artificial (IA) generativa han sido testigos de avances significativos en los últimos años, ofreciendo capacidades notables en una variedad de dominios.

La IA generativa es una herramienta poderosa que puede usarse tanto para bien como para mal. Los actores de amenazas han estado empleando la última tecnología para dañar a las empresas de diversas maneras durante décadas, pero las organizaciones han encontrado y deben seguir encontrando formas de utilizar esta misma tecnología para su beneficio y, en última instancia, burlar a estos ladrones digitales a medida que la IA se vuelve más accesible y aceptada.

Junto con los beneficios de la IA generativa en el ámbito del acceso al conocimiento compartido y la eficiencia, estos sistemas también plantean amenazas importantes para las estrategias cibernéticas de muchas empresas. La capacidad de la IA generativa para crear contenido realista y convincente, junto con su capacidad para aprender de grandes cantidades de datos, introduce nuevos desafíos y vulnerabilidades que pueden ser explotadas por una variedad de actores maliciosos.

Analicemos algunas de las formas clave en que la IA generativa permite que los malos actores se infiltren en las organizaciones, al mismo tiempo que abordamos algunos métodos en los que las empresas pueden implementar mecanismos de seguridad para proteger sus datos, empleados y clientes.

Automatización de amenazas a escala

La IA generativa está empoderando a las partes malintencionadas a través de la automatización a escala. Esto puede impulsar cualquier iniciativa que normalmente llevaría muchas horas crear y que ahora puede requerir simplemente unas pocas indicaciones por escrito. Estas estafas incluyen correos electrónicos de phishing maliciosos, artículos de noticias falsos u otras comunicaciones que pueden distribuirse de forma masiva, suplantando la voz y el tono y dirigiéndose a grupos específicos.

Imitación hiperrealista

Los actores de amenazas también pueden utilizar la IA generativa a través de falsificaciones hiperrealistas. Se puede utilizar para imitar la biometría mediante simulación de fotografías/videos y duplicación de voz, no solo texto escrito. Estas muestras audiovisuales se pueden tomar de una base de datos en la nube o cargarlas desde Internet. Probablemente hayas sido testigo de ejemplos de esta tecnología a través de memes y vídeos de figuras públicas y celebridades en las plataformas de redes sociales.

Sintetizando código

La IA generativa puede incluso crear y reescribir código. Esto significa que su código de malware o virus, que se selecciona, diseña y libera cuidadosamente, se puede duplicar o combatir con código adicional para impedir que funcione correctamente. Esta es una oportunidad para los fabricantes de tecnologías de escaneo de virus, impulsándolos a integrar la inteligencia artificial y el aprendizaje automático en sus productos en un esfuerzo por bloquear y abordar estas indicaciones dañinas.

Claves para proteger tu negocio

Entonces ahora quizás se pregunte: “¿Hacia dónde van las organizaciones a partir de ahora? ¿Cómo pueden las empresas protegerse de este tipo de actores maliciosos?”

Nuestra defensa contra estos estafadores digitales no será declarar una moratoria sobre el uso de la IA, sino duplicar la versatilidad, la utilidad y la capacidad de contrarrestar estas amenazas de una manera más eficiente que un ingeniero humano que monitoree los sistemas 24/7.

Esto significa que el ingeniero de ciberseguridad es la persona responsable de hacer cumplir los estándares éticos y de seguridad que mantienen las barreras en torno a la IA. Entonces, aunque la IA es capaz de detectar pequeños incidentes y anomalías que el ingeniero normalmente no vería, el ser humano sigue siendo el dispositivo a prueba de fallos. Están ahí para garantizar que se mantengan los estándares de seguridad y las mejores prácticas que se han establecido en la gestión de identidad y acceso (IAM), así como para realizar pruebas y auditorías rigurosas de la IA. La supervisión humana es absolutamente esencial para comprender estos complejos sistemas de IA.

A medida que las organizaciones piensan en otras formas en las que pueden protegerse contra la IA dañina y capacitar a su fuerza laboral en las mejores prácticas de IA, deben centrarse en qué datos deben y no deben compartirse con estos sistemas. Por ejemplo: algo que el público en general tal vez no sepa es que una vez que se ha proporcionado información a la IA, esos sistemas son propietarios de esos datos y el usuario ya no tiene autoridad sobre cómo se utilizarán en el futuro. Capacitar a los empleados sobre lo que se debe y no se debe compartir con estos sistemas inteligentes puede ser un factor clave para proteger la integridad del negocio.

Además, la autenticación multifactor (MFA) sigue siendo la herramienta más eficaz para combatir estas iniciativas maliciosas. Ahora, en el panorama actual, MFA debería abarcar la autenticación biométrica, de contraseña y los datos conocidos del usuario. Todos estos factores añaden la capa adicional de seguridad necesaria para los usuarios y las organizaciones, lo que dificulta que los atacantes obtengan acceso a las cuentas incluso si han robado una pieza del rompecabezas.

En el panorama tecnológico actual, cada cuenta debe tratarse como una cuenta privilegiada. El acceso con privilegios mínimos significa que los usuarios solo tienen acceso a los recursos que necesitan para realizar su trabajo. Esto ayuda a reducir el riesgo de acceso no autorizado y, en última instancia, protege a las empresas de los malos actores que intentan acceder a los datos más protegidos.

A medida que avanzamos hacia un mundo más inmerso en la IA, estas tecnologías seguirán siendo transformadoras para la sociedad, tal como lo fue Internet después de su creación, y en última instancia impactarán la economía, los empleos, la educación y las tareas cotidianas. Es importante recordar que estas tecnologías seguirán siendo utilizadas tanto por los buenos como por los malos, pero depende de los humanos establecer y hacer cumplir las barreras sobre cómo estos sistemas generativos de IA funcionarán e impactarán las vidas humanas.

Resumen del Contenido