Inteligencia Artificial - Nov 05, 2025
Google publicó un informe en el que describe cómo las amenazas informáticas están utilizando inteligencia artificial para adaptarse y evadir los sistemas de seguridad tradicionales.
Según el equipo de Inteligencia de Amenazas de Google (GTIG), se detectaron métodos novedosos en los que el malware está aprovechando la IA mucho más allá de tareas de productividad. Desde hace tiempo, grupos criminales y actores patrocinados por estados han utilizado modelos de IA para mejorar código malicioso, planificar ataques y diseñar engaños más convincentes.
Lo preocupante ahora es que algunos programas maliciosos están usando la inteligencia artificial durante la ejecución, es decir, mientras infectan un equipo, para modificar su comportamiento y evitar ser detectados.
Uno de los ejemplos más comentados recientemente fue “PromptLock”, un ransomware experimental capaz de generar scripts en tiempo real dentro de sistemas comprometidos. Aunque fue creado por investigadores como prueba de concepto, ya no es el único caso.
El reporte menciona nuevas variantes que usan IA para actuar de forma autónoma dentro del ataque. Entre ellas está “PromptFlux”, un malware que puede reescribirse a sí mismo y guardar su nueva versión en el inicio del sistema para mantenerse activo.
Los investigadores explican que esta familia de malware solicita a un modelo de IA técnicas de ocultamiento y evasión justo antes de ejecutarse, lo que le permite modificar su código constantemente y evitar que las soluciones de seguridad basadas en firmas lo detecten.
También se encontró un malware denominado “FruitShell”, escrito en PowerShell, que permite ejecutar comandos remotos en equipos infectados. Este código incluye instrucciones creadas por IA para eludir análisis y filtros automatizados.
Otra amenaza señalada es “PromptSteal”, una herramienta escrita en Python que usa modelos de IA para crear comandos específicos capaces de recopilar información del sistema y documentos almacenados en carpetas seleccionadas.
Finalmente, el informe describe “QuietVault”, un ladrón de credenciales desarrollado en JavaScript que busca tokens de acceso para plataformas de desarrollo. Utiliza instrucciones generadas por inteligencia artificial para localizar más secretos dentro del sistema comprometido.
Google advierte que, aunque esta tendencia aún está en una fase temprana, representa un paso significativo hacia malware más autónomo, adaptable y difícil de combatir. La empresa prevé que este tipo de ataques aumentará con el tiempo.
El informe también revela que los atacantes están utilizando técnicas de “ingeniería social” para intentar manipular modelos de IA y saltarse sus barreras de seguridad. Además, el mercado clandestino de herramientas de inteligencia artificial para actividades delictivas está creciendo, con plataformas diseñadas para crear malware, campañas de phishing y herramientas de explotación.
Por otra parte, el reporte identifica que algunos grupos vinculados a estados continúan usando IA para mejorar la fase de reconocimiento, filtrado de datos y control de sistemas comprometidos.
Según Google, estas herramientas podrían reducir la barrera de entrada para ciberdelincuentes con poca experiencia, permitiendo que más actores utilicen inteligencia artificial para fines maliciosos.