mercoledì, 11 Febbraio 2026
HomeInformaticaCyber SecurityMettere in sicurezza l'intelligenza artificiale agentica: come proteggere l'accesso all'identità invisibile

Mettere in sicurezza l’intelligenza artificiale agentica: come proteggere l’accesso all’identità invisibile

Gli agenti AI ridefiniscono il rischio di identità

Gli agenti AI promettono di automatizzare tutto, dalle riconciliazioni finanziarie alla risposta agli incidenti. Tuttavia, ogni volta che un agente AI avvia un flusso di lavoro, deve autenticarsi da qualche parte; spesso con una chiave API ad alta privilegi, un token OAuth o un account di servizio che i difensori non possono facilmente vedere. Queste “invisibili” identità non umane (NHI) ora superano in numero gli account umani nella maggior parte degli ambienti cloud, diventando uno dei bersagli più appetibili per gli attaccanti.

Autonomia e comportamento imprevedibile

L’autonomia cambia tutto: un agente AI può concatenare più chiamate API e modificare i dati senza un intervento umano. Se la credenziale sottostante è esposta o eccessivamente privilegiata, ogni azione aggiuntiva amplifica il raggio d’azione. I modelli di linguaggio di grandi dimensioni (LLM) si comportano in modo imprevedibile: il codice tradizionale segue regole deterministiche, mentre i LLM operano sulla probabilità. Ciò significa che non si può garantire come o dove un agente utilizzerà l’accesso che gli viene concesso.

Strumenti IAM esistenti e controllo delle identità umane

Gli strumenti di gestione delle identità esistenti sono stati costruiti per gli umani: la maggior parte delle piattaforme di governance delle identità si concentra sui dipendenti, non sui token. Mancano del contesto per mappare quali NHI appartengono a quali agenti, chi li possiede e cosa possono effettivamente toccare. I programmi di sicurezza di successo applicano già controlli “di livello umano” come nascita, vita e pensionamento agli account di servizio e alle credenziali delle macchine. Estendere la stessa disciplina agli agenti AI offre vittorie rapide senza bloccare l’innovazione aziendale.

Trattare gli agenti AI come utenti di prima classe

Assegnazione del proprietario: ogni agente deve avere un proprietario umano nominato (ad esempio, lo sviluppatore che ha configurato un GPT personalizzato) che sia responsabile del suo accesso. Privilegio minimo: partire da ambiti di sola lettura, quindi concedere azioni di scrittura strettamente delimitate nel momento in cui l’agente dimostra di averne bisogno. Governance del ciclo di vita: dismettere le credenziali nel momento in cui un agente viene deprecato e ruotare automaticamente i segreti secondo un programma. Monitoraggio continuo: osservare chiamate anomale (ad esempio, picchi improvvisi verso API sensibili) e revocare l’accesso in tempo reale.

Accesso sicuro agli agenti AI

Le imprese non dovrebbero dover scegliere tra sicurezza e agilità. Astrix rende facile proteggere l’innovazione senza rallentarla, offrendo tutti i controlli essenziali in un’unica piattaforma intuitiva:

Scoperta e governance

Scoprire e mappare automaticamente tutti gli agenti AI, inclusi agenti esterni e sviluppati internamente, con contesto sulle loro NHI associate, permessi, proprietari e ambienti accessibili. Prioritizzare gli sforzi di rimedio basati su una valutazione del rischio automatizzata basata sui livelli di esposizione degli agenti e sulle debolezze di configurazione.

Gestione del ciclo di vita

Gestire gli agenti AI e le NHI su cui si basano dalla fornitura alla dismissione, garantendo che le credenziali siano sempre aggiornate e sicure.

 

Fonte: The Hackers News

Per saperne di più

Julie Maddaloni
Julie Maddaloni
Ciao! Sono una blogger appassionata di tecnologia e delle news dei mondi Apple e Android. Amo scoprire le ultime novità del settore e condividere storie e consigli utili con chi, come me, è sempre alla ricerca delle ultime novità. Quando non sono immersa tra recensioni e aggiornamenti tech, mi rilasso con una buona pizza e una maratona di serie TV! 🍕📱💙
TI POTREBBERO INTERESSARE

ARTICOLI CONSIGLIATI

Shai-hulud v2 si diffonde da npm a maven, mentre...

La seconda ondata dell'attacco alla supply chain di Shai-Hulud colpisce l'ecosistema MavenLa seconda ondata dell'attacco alla supply chain di Shai-Hulud ha travolto l'ecosistema Maven...

CISA segnala una grave vulnerabilità in WatchGuard Fireware che...

Vulnerabilità critica in WatchGuard Fireware: un rischio per la sicurezzaLa Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti ha recentemente aggiunto una vulnerabilità...

Oltre 67,000 pacchetti npm falsi inondano il registro in...

Allarme per una campagna di spam su larga scala nel registro npmI ricercatori di sicurezza informatica hanno recentemente acceso i riflettori su una massiccia...

Hacker russi creano 4.300 siti di viaggio falsi per...

Una minaccia di lingua russa dietro una campagna di phishing di massaUna campagna di phishing di origine russa ha registrato un numero impressionante di...