mercoledì, 19 Marzo 2025
spot_imgspot_imgspot_imgspot_img
HomeInformaticaCyber SecurityNuovo attacco 'Rules File Backdoor' consente agli hacker di iniettare codice dannoso...

Nuovo attacco ‘Rules File Backdoor’ consente agli hacker di iniettare codice dannoso tramite editor di codice AI

Nuovo vettore di attacco nella supply chain: il Rules File Backdoor

I ricercatori di cybersecurity hanno rivelato i dettagli di un nuovo vettore di attacco nella supply chain, denominato Rules File Backdoor, che colpisce editor di codice potenziati dall’intelligenza artificiale (AI) come GitHub Copilot e Cursor. Questo attacco induce questi strumenti a iniettare codice malevolo.

Come funziona il Rules File Backdoor

Questa tecnica permette agli hacker di compromettere silenziosamente il codice generato dall’AI, iniettando istruzioni malevole nascoste in file di configurazione apparentemente innocui utilizzati da Cursor e GitHub Copilot. Secondo Ziv Karliner, co-fondatore e CTO di Pillar Security, “sfruttando caratteri unicode nascosti e tecniche di evasione sofisticate, gli attori malevoli possono manipolare l’AI per inserire codice malevolo che supera le tipiche revisioni del codice”.

Rischi per la supply chain

Il vettore di attacco è particolarmente preoccupante perché consente al codice malevolo di propagarsi silenziosamente attraverso i progetti, rappresentando un rischio per la supply chain. Il fulcro dell’attacco si basa sui file di regole utilizzati dagli agenti AI per guidare il loro comportamento, aiutando gli utenti a definire le migliori pratiche di codifica e l’architettura del progetto.

Dettagli tecnici dell’attacco

In particolare, l’attacco prevede l’inserimento di prompt accuratamente elaborati all’interno di file di regole apparentemente innocui, inducendo lo strumento AI a generare codice contenente vulnerabilità di sicurezza o backdoor. In altre parole, le regole avvelenate spingono l’AI a produrre codice dannoso. Questo può essere realizzato utilizzando caratteri invisibili come i zero-width joiners e i bidirectional text markers, sfruttando la capacità dell’AI di interpretare il linguaggio naturale per generare codice vulnerabile attraverso schemi semantici che ingannano il modello nel superare i vincoli etici e di sicurezza.

Implicazioni per gli sviluppatori

Dopo la divulgazione responsabile avvenuta tra la fine di febbraio e marzo 2024, sia Cursor che GitHub hanno dichiarato che gli utenti sono responsabili della revisione e dell’accettazione dei suggerimenti generati dagli strumenti. “Il Rules File Backdoor rappresenta un rischio significativo, trasformando l’AI stessa in un vettore di attacco, trasformando efficacemente l’assistente più fidato dello sviluppatore in un complice inconsapevole, potenzialmente influenzando milioni di utenti finali attraverso software compromesso”, ha affermato Karliner.

Propagazione del codice malevolo

Una volta che un file di regole avvelenato viene incorporato in un repository di progetto, esso influenza tutte le future sessioni di generazione del codice da parte dei membri del team. Inoltre, le istruzioni malevole spesso sopravvivono al fork del progetto, creando un vettore per attacchi alla supply chain che possono influenzare le dipendenze a valle e gli utenti finali.

 

Fonte: The Hackers News

articolo originale

Ricevi le ultime attualità sul mondo tech!

Julie Maddaloni
Julie Maddaloni
Ciao! Sono una blogger appassionata di tecnologia e delle news dei mondi Apple e Android. Amo scoprire le ultime novità del settore e condividere storie e consigli utili con chi, come me, è sempre alla ricerca delle ultime novità. Quando non sono immersa tra recensioni e aggiornamenti tech, mi rilasso con una buona pizza e una maratona di serie TV! 🍕📱💙
RELATED ARTICLES

Ultimi articoli