Un reciente descubrimiento ha puesto de manifiesto la existencia de más de 30 vulnerabilidades de seguridad en diversos Entornos de Desarrollo Integrados (IDEs) potenciados por Inteligencia Artificial (IA). Estas vulnerabilidades, denominadas colectivamente ‘IDEsaster’ por el investigador de seguridad Ari Marzouk (MaccariTA), combinan primitivas de inyección de ‘prompt’ con funcionalidades legítimas, permitiendo la exfiltración de datos y la ejecución remota de código.
Los fallos de seguridad afectan a IDEs y extensiones populares como Cursor, Windsurf, Kiro.dev, GitHub Copilot, Zed.dev, Roo Code, Junie y Cline, entre otros. De estos, 24 han sido asignados con identificadores CVE.
El núcleo del problema radica en una cadena de tres vectores comunes a los IDEs impulsados por IA:
1. **Bypass de las barreras de seguridad del modelo de lenguaje grande (LLM):** Permite secuestrar el contexto y realizar acciones maliciosas.
2. **Ejecución de acciones sin interacción del usuario:** A través de llamadas a herramientas auto-aprobadas por el agente de IA.
3. **Activación de funcionalidades legítimas del IDE:** Permite a un atacante romper la barrera de seguridad para filtrar datos confidenciales o ejecutar comandos arbitrarios.
Algunos de los ataques identificados incluyen:
* Lectura de archivos sensibles y escritura de archivos JSON con esquemas remotos controlados por el atacante, lo que permite la filtración de datos (CVE-2025-49150, CVE-2025-53097, CVE-2025-58335).
* Edición de archivos de configuración del IDE para lograr la ejecución de código malicioso (CVE-2025-53773, CVE-2025-54130, CVE-2025-53536, CVE-2025-55012).
* Edición de archivos de configuración del espacio de trabajo para ejecutar código (CVE-2025-64660, CVE-2025-61590, CVE-2025-58372).
Marzouk recomienda:
* Utilizar IDEs de IA solo con proyectos y archivos de confianza.
* Conectarse únicamente a servidores MCP de confianza y supervisarlos continuamente.
* Revisar manualmente las fuentes añadidas en busca de instrucciones ocultas.
Este hallazgo subraya la importancia del concepto ‘Secure for AI’, un nuevo paradigma que busca abordar los desafíos de seguridad introducidos por las funcionalidades de IA. La conexión de agentes de IA a aplicaciones existentes, como IDEs o GitHub Actions, crea nuevos riesgos emergentes que deben ser considerados.
En INGENIERÍA TELEMÁTICA SAS, estamos comprometidos con la seguridad de su infraestructura y aplicaciones. Si utiliza herramientas de desarrollo con IA, le recomendamos revisar sus configuraciones y políticas de seguridad. Si desea obtener más información sobre cómo proteger su entorno de desarrollo, no dude en contactarnos a través de nuestro formulario de contacto o por los medios habituales si ya es cliente. Podemos asesorarle en la implementación de soluciones de seguridad robustas, incluyendo firewalls, EDR/XDR, SOC, y otras soluciones de ciberseguridad.
Fuente original: Ver aquí