Alerta de Microsoft y OpenAI ante uso de IA en ataques cibernéticos

En el actual panorama de la ciberseguridad, la convergencia de la inteligencia artificial (IA) y las operaciones de ciberataque por parte de actores estatales representa un desafío emergente y complejo. La utilización de modelos de lenguaje artificial (LLMs) como ChatGPT por entidades respaldadas por gobiernos de naciones como Rusia, China, Irán y Corea del Norte, ha marcado un punto de inflexión en la metodología de los ciberataques, permitiendo a estos actores mejorar significativamente la eficacia y sofisticación de sus operaciones maliciosas.

La adaptación y uso de estas tecnologías por parte de actores estatales abarcan desde la generación automatizada de correos electrónicos de phishing altamente convincentes, hasta la investigación y explotación de vulnerabilidades conocidas, pasando por la automatización de tareas de codificación que facilitan la ejecución de software malicioso. Un aspecto particularmente preocupante es la capacidad de estos actores para utilizar IA para perfeccionar técnicas de ingeniería social, creando lures de phishing y mensajes de manipulación que son cada vez más difíciles de distinguir de las comunicaciones legítimas.
Por ejemplo, grupos como Forest Blizzard (Rusia) y Emerald Sleet (Corea del Norte) han demostrado su habilidad para emplear LLMs en la investigación de tecnologías satelitales y protocolos de comunicación, así como para el desarrollo de scripts y herramientas que apoyan sus operaciones de espionaje y sabotaje. Del mismo modo, entidades como Crimson Sandstorm (Irán) y Charcoal Typhoon (China) han utilizado estas capacidades para generar códigos y realizar investigaciones técnicas que facilitan el desarrollo de campañas de ataque más efectivas.

La situación se complica aún más por la capacidad de la IA para asistir en la creación de contenido que puede ser utilizado en campañas de doble extorsión, donde los atacantes no solo cifran los datos de la víctima, sino que también amenazan con publicar información robada si no se cumple con el pago del rescate. Este enfoque refleja una evolución hacia ataques más complejos y multifacéticos, donde la IA juega un papel central en la maximización del impacto y la rentabilidad de las operaciones maliciosas.

Frente a esta realidad, la mitigación efectiva requiere un enfoque multifacético que combine tecnologías de vanguardia, estrategias proactivas de defensa y una cooperación sin precedentes entre entidades privadas y públicas. Las organizaciones deben priorizar la implementación de autenticación multifactor robusta, la educación continua de los empleados sobre las amenazas emergentes, y la adopción de soluciones de seguridad avanzadas que puedan detectar y neutralizar operaciones maliciosas potenciadas por IA. Además, la colaboración internacional y el intercambio de inteligencia sobre amenazas son fundamentales para adelantarse a los actores estatales que buscan explotar las capacidades de la IA para fines maliciosos.

Actores nacionales que utilizan la IA como arma

El estudio de Microsoft pone de relieve el uso de la inteligencia artificial generativa por parte de cinco agentes que representan las tácticas, técnicas y procedimientos (TTP) que el sector de la ciberseguridad debe rastrear mejor:

  • Forest Blizzard – Rusia

Este actor vinculado a la inteligencia militar rusa tiene como objetivo organizaciones gubernamentales y de infraestructuras críticas en Estados Unidos, Europa y Oriente Próximo. Se ha mostrado «extremadamente activo» en la realización de operaciones de apoyo a la invasión rusa de Ucrania.

  • Emerald Sleet – Corea del Norte

Se sabe que este grupo lleva a cabo campañas de ingeniería social para recabar información de personas destacadas con experiencia en Corea del Norte.

El principal uso que Emerald Sleet ha hecho de los LLM ha sido apoyar estas campañas y llevar a cabo investigaciones sobre grupos de reflexión y expertos en Corea del Norte a los que podría suplantar.

  • Crimson Sandstorm – Irán

Este actor de amenazas, vinculado al Cuerpo de la Guardia Revolucionaria Islámica (IRGC), ha sido observado dirigiéndose a sectores críticos para distribuir malware.

Sus principales usos de los LLM han sido mejorar la calidad de los correos electrónicos de phishing, aprender a desarrollar código para eludir la detección y mejorar las técnicas de secuencias de comandos, como la generación de fragmentos de código que parecen destinados a apoyar el desarrollo de aplicaciones y sitios web.

  • Charcoal Typhoon – China

Este actor de amenazas se centra predominantemente en entidades de Taiwán, Tailandia, Mongolia, Malasia, Francia y Nepal, en particular aquellas instituciones e individuos que se oponen a las políticas del gobierno chino.

El grupo también ha llevado a cabo actividades de reconocimiento utilizando LLM, como la comprensión de tecnologías, plataformas y vulnerabilidades específicas.

  • Salmon Typhoon – China

Este actor de amenazas afiliado a China ha sido observado anteriormente atacando a contratistas de defensa estadounidenses, agencias gubernamentales y entidades del sector de la tecnología criptográfica, a menudo desplegando malware para mantener el acceso remoto a los sistemas comprometidos.

Microsoft y OpenAI han declarado que se han desactivado todas las cuentas y activos asociados a estos grupos.

Posibles medidas de Protección

Para abordar de manera efectiva los riesgos asociados con el uso indebido de la inteligencia artificial por parte de actores estatales en ciberataques, se recomienda las siguientes medidas de mitigación:

  • Autenticación Multifactor (MFA): Es esencial implementar MFA en todas las cuentas de usuario, proporcionando una capa adicional de seguridad que dificulta significativamente los accesos no autorizados
  • Educación y Concienciación de Usuarios: Capacitar regularmente para reconocer tácticas de ingeniería social mejoradas por IA, como correos electrónicos de phishing.
  • Seguridad de Endpoint y Monitoreo de Red: Utilizar soluciones avanzadas para detectar y responder a actividades sospechosas, ayudando a identificar ataques en progreso y mitigar sus efectos.
  • Análisis de Comportamiento y Detección de Anomalías: La implementación de herramientas que analizan patrones de comportamiento.
  • Colaboración Sectorial: Participar en intercambios de información sobre amenazas que puedan proveer insights valiosos sobre las tácticas y procedimientos de actores maliciosos.
  • Respaldo y Recuperación: Mantener políticas sólidas de respaldo y recuperación para asegurar la continuidad del negocio en caso de un ataque exitoso.

Referencia:

https://www.darkreading.com/threat-intelligence/microsoft-openai-nation-states-are-weaponizing-ai-in-cyberattacks

Webinars

¿Te perdiste el en vivo? ¡Míralo ahora!

Síguenos
Suscríbete

Recibe nuestro boletín para mantenerte actualizado