lunedì, 17 Novembre 2025
NordVPN Black FridayNordVPN Black Friday
HomeInformaticaCyber SecurityNuovo attacco di occultamento mirato all'IA inganna i crawler dell'IA inducendoli a...

Nuovo attacco di occultamento mirato all’IA inganna i crawler dell’IA inducendoli a citare informazioni false come fatti verificati

I ricercatori di sicurezza informatica hanno recentemente scoperto una vulnerabilità nei browser web che utilizzano modelli di intelligenza artificiale come OpenAI ChatGPT Atlas. Questa falla espone i modelli AI a un attacco noto come avvelenamento del contesto. La società di sicurezza AI SPLX ha ideato un metodo in cui un malintenzionato può creare siti web che mostrano contenuti diversi ai browser e ai crawler AI gestiti da ChatGPT e Perplexity.

Occultamento basato sull’intelligenza artificiale: una nuova variante del cloaking

Questa tecnica, denominata occultamento basato sull’intelligenza artificiale, è una variante del cloaking dei motori di ricerca. Tradizionalmente, il cloaking si riferisce alla pratica di mostrare una versione di una pagina web agli utenti e una diversa ai crawler dei motori di ricerca, con l’obiettivo di manipolare le classifiche di ricerca.

In questo caso, gli aggressori ottimizzano i crawler AI di vari provider attraverso un semplice controllo dell’agente utente, manipolando così la consegna dei contenuti.

Implicazioni per la fiducia negli strumenti di intelligenza artificiale

Secondo i ricercatori di sicurezza Ivan Vlahov e Bastien Eymery, “Poiché questi sistemi si basano su un recupero diretto, qualsiasi contenuto venga loro fornito diventa la verità di base nelle panoramiche dell’IA, nei riassunti o nel ragionamento autonomo”.

Questo significa che una semplice regola condizionale, come ‘se user agent = ChatGPT, serve questa pagina invece’, può influenzare ciò che milioni di utenti vedono come output autorevole.

Una potenziale arma di disinformazione

SPLX avverte che l’occultamento mirato all’IA, sebbene apparentemente semplice, può essere trasformato in una potente arma di disinformazione, minando la fiducia negli strumenti di IA.

Instruendo i crawler AI a caricare contenuti diversi da quelli effettivi, si possono introdurre pregiudizi e influenzare l’esito dei sistemi che si basano su tali segnali. “I crawler AI possono essere ingannati con la stessa facilità dei primi motori di ricerca, ma con un impatto molto maggiore a valle”, ha dichiarato la società.

Considerazioni finali

Questa nuova minaccia evidenzia la necessità di una maggiore attenzione alla sicurezza nei sistemi di intelligenza artificiale. Mentre l’AI continua a evolversi e a integrarsi sempre più nelle nostre vite quotidiane, è fondamentale che le aziende e gli sviluppatori prendano misure proattive per proteggere i loro modelli da potenziali attacchi.

L’occultamento basato sull’intelligenza artificiale rappresenta una sfida significativa, ma con una vigilanza costante e l’adozione di pratiche di sicurezza avanzate, possiamo mitigare i rischi associati a queste tecniche ingannevoli.

Fonte: The Hackers News​

articolo originale

Ricevi le ultime attualità sul mondo tech!

Julie Maddaloni
Julie Maddaloni
Ciao! Sono una blogger appassionata di tecnologia e delle news dei mondi Apple e Android. Amo scoprire le ultime novità del settore e condividere storie e consigli utili con chi, come me, è sempre alla ricerca delle ultime novità. Quando non sono immersa tra recensioni e aggiornamenti tech, mi rilasso con una buona pizza e una maratona di serie TV! 🍕📱💙
ARTICOLI CORRELATI

Ultimi articoli