Ir al contenido

Nuevo ataque 'Rules File Backdoor' permite a hackers inyectar código malicioso a través de editores de código con IA

Código malicioso a través de editores de código con IA

Investigadores en ciberseguridad han revelado detalles sobre un nuevo vector de ataque en la cadena de suministro, denominado Rules File Backdoor, que afecta a editores de código impulsados por inteligencia artificial (IA), como GitHub Copilot y Cursor, permitiendo la inyección de código malicioso.

"Esta técnica permite a los hackers comprometer silenciosamente el código generado por IA mediante la inserción de instrucciones maliciosas ocultas en archivos de configuración aparentemente inofensivos utilizados por Cursor y GitHub Copilot", explicó Ziv Karliner, cofundador y CTO de Pillar Security, en un informe técnico compartido con The Hacker News.

"Al explotar caracteres Unicode ocultos y técnicas avanzadas de evasión dentro de las instrucciones dirigidas al modelo, los atacantes pueden manipular la IA para insertar código malicioso que evade las revisiones de seguridad habituales."

Este vector de ataque es particularmente preocupante porque permite que el código malicioso se propague silenciosamente entre proyectos, representando un riesgo significativo en la cadena de suministro de software.

Cómo funciona el ataque

El núcleo de este ataque radica en los archivos de reglas utilizados por los agentes de IA para guiar su comportamiento. Estos archivos ayudan a definir las mejores prácticas de codificación y la arquitectura de los proyectos.

El ataque consiste en insertar indicaciones cuidadosamente diseñadas dentro de estos archivos de reglas aparentemente inofensivos, lo que provoca que la herramienta de IA genere código con vulnerabilidades de seguridad o puertas traseras. Es decir, las reglas contaminadas inducen al modelo a generar código malicioso sin que el usuario lo note.

Para lograrlo, los atacantes emplean técnicas como:

  • Caracteres invisibles (como los zero-width joiners o los marcadores de texto bidireccional) para ocultar instrucciones maliciosas.
  • Explotación de patrones semánticos, que engañan al modelo para que ignore restricciones de seguridad y ética.

Riesgos y respuesta de las plataformas

Tras una divulgación responsable en febrero y marzo de 2024, Cursor y GitHub han señalado que la responsabilidad de revisar y aceptar las sugerencias generadas recae en los usuarios.

"El ataque 'Rules File Backdoor' representa un riesgo significativo al convertir a la propia IA en un vector de ataque, transformando al asistente de desarrollo más confiable en un cómplice involuntario. Esto podría afectar a millones de usuarios a través de software comprometido", advirtió Karliner.

Una vez que un archivo de reglas contaminado se incorpora a un repositorio, afecta todas las futuras sesiones de generación de código del equipo. Además, las instrucciones maliciosas pueden persistir incluso después de bifurcar un proyecto, creando un vector de ataque en la cadena de suministro que puede comprometer dependencias y usuarios finales.

🔴 Conclusión: Este ataque destaca la creciente necesidad de reforzar la seguridad en los flujos de trabajo de desarrollo basados en IA y de realizar auditorías rigurosas en los archivos de configuración utilizados por estas herramientas.

Nuevo ataque 'Rules File Backdoor' permite a hackers inyectar código malicioso a través de editores de código con IA
ADG-IT 18 de marzo de 2025
Compartir