Nuovo vettore di attacco nella supply chain: il Rules File Backdoor
I ricercatori di cybersecurity hanno rivelato i dettagli di un nuovo vettore di attacco nella supply chain, denominato Rules File Backdoor, che colpisce editor di codice potenziati dall’intelligenza artificiale (AI) come GitHub Copilot e Cursor. Questo attacco induce questi strumenti a iniettare codice malevolo.
Come funziona il Rules File Backdoor
Questa tecnica permette agli hacker di compromettere silenziosamente il codice generato dall’AI, iniettando istruzioni malevole nascoste in file di configurazione apparentemente innocui utilizzati da Cursor e GitHub Copilot. Secondo Ziv Karliner, co-fondatore e CTO di Pillar Security, “sfruttando caratteri unicode nascosti e tecniche di evasione sofisticate, gli attori malevoli possono manipolare l’AI per inserire codice malevolo che supera le tipiche revisioni del codice”.
Rischi per la supply chain
Il vettore di attacco è particolarmente preoccupante perché consente al codice malevolo di propagarsi silenziosamente attraverso i progetti, rappresentando un rischio per la supply chain. Il fulcro dell’attacco si basa sui file di regole utilizzati dagli agenti AI per guidare il loro comportamento, aiutando gli utenti a definire le migliori pratiche di codifica e l’architettura del progetto.
Dettagli tecnici dell’attacco
In particolare, l’attacco prevede l’inserimento di prompt accuratamente elaborati all’interno di file di regole apparentemente innocui, inducendo lo strumento AI a generare codice contenente vulnerabilità di sicurezza o backdoor. In altre parole, le regole avvelenate spingono l’AI a produrre codice dannoso. Questo può essere realizzato utilizzando caratteri invisibili come i zero-width joiners e i bidirectional text markers, sfruttando la capacità dell’AI di interpretare il linguaggio naturale per generare codice vulnerabile attraverso schemi semantici che ingannano il modello nel superare i vincoli etici e di sicurezza.
Implicazioni per gli sviluppatori
Dopo la divulgazione responsabile avvenuta tra la fine di febbraio e marzo 2024, sia Cursor che GitHub hanno dichiarato che gli utenti sono responsabili della revisione e dell’accettazione dei suggerimenti generati dagli strumenti. “Il Rules File Backdoor rappresenta un rischio significativo, trasformando l’AI stessa in un vettore di attacco, trasformando efficacemente l’assistente più fidato dello sviluppatore in un complice inconsapevole, potenzialmente influenzando milioni di utenti finali attraverso software compromesso”, ha affermato Karliner.
Propagazione del codice malevolo
Una volta che un file di regole avvelenato viene incorporato in un repository di progetto, esso influenza tutte le future sessioni di generazione del codice da parte dei membri del team. Inoltre, le istruzioni malevole spesso sopravvivono al fork del progetto, creando un vettore per attacchi alla supply chain che possono influenzare le dipendenze a valle e gli utenti finali.
Fonte: The Hackers News
Ricevi le ultime attualità sul mondo tech!