martedì, 9 Dicembre 2025
HomeTecnologia e ScienzeAI Act: bozza dei codici di condotta sotto accusa, “favorisce le Big...

AI Act: bozza dei codici di condotta sotto accusa, “favorisce le Big Tech e mina la democrazia”

Si accende il dibattito attorno all’attuazione dell’AI Act, il regolamento europeo sull’intelligenza artificiale approvato nei mesi scorsi. Alcuni parlamentari europei, tra cui Brando Benifei, relatore del testo, hanno espresso forti riserve sulla bozza attuale dei codici di condotta per i modelli di IA a uso generale, come GPT-4 di OpenAI.

In una lettera indirizzata alla vicepresidente della Commissione europea Henna Virkkunen, gli eurodeputati denunciano una pericolosa deriva normativa, che rischia di compromettere la coerenza e l’efficacia delle misure previste dal regolamento.

Il codice per l’IA generale: una svolta contestata

Il nodo centrale della critica riguarda il codice di buone pratiche in fase di definizione, che dovrà specificare come applicare l’AI Act ai modelli di intelligenza artificiale a uso generale, in particolare a quelli considerati a rischio sistemico. Si tratta di modelli avanzati, potenti e potenzialmente impattanti sul tessuto sociale, economico e democratico dell’Unione.

Secondo i deputati, le bozze attuali stanno diluendo le responsabilità previste dalla legge, trasformando obblighi vincolanti in semplici raccomandazioni volontarie. Questo processo, affermano, rappresenta una reinterpretazione pericolosa del testo giuridico, che finirebbe per svuotarlo di significato.

“Rischi per la democrazia trattati come opzionali”

Nella lettera, gli eurodeputati criticano con forza il fatto che, nella bozza attuale, la valutazione e la mitigazione dei rischi per i diritti fondamentali e per la democrazia siano diventate facoltative. Eppure, proprio questi rischi erano stati identificati come elementi centrali da monitorare e gestire nei modelli di IA ad alto impatto.

“Non è mai stata questa l’intenzione dell’accordo politico raggiunto nel trilogo”, scrivono i firmatari, riferendosi al processo legislativo condiviso tra Parlamento, Consiglio e Commissione.

Secondo l’AI Act approvato, i fornitori di IA sistemica devono:

  • Valutare e ridurre i rischi connessi all’uso dei loro modelli
  • Segnalare incidenti gravi
  • Sottoporre i sistemi a test avanzati
  • Garantire elevati standard di sicurezza informatica

Tutte misure che, a detta dei deputati, verrebbero ora relativizzate o addirittura rese opzionali nelle nuove linee guida, lasciando ampi margini interpretativi ai grandi attori privati.

Il timore: un codice scritto su misura per le Big Tech

Dietro questa svolta, secondo i critici, ci sarebbe una pressione crescente da parte delle grandi aziende tecnologiche per ridurre l’impatto regolatorio della legge. Il risultato? Un documento tecnico che rischia di sbilanciare l’intero impianto normativo a loro favore, indebolendo la tutela dell’interesse pubblico e dei diritti civili.

Il gruppo di parlamentari denuncia una perdita di trasparenza e controllo democratico, accusando la Commissione di permettere una “riscrittura de facto” del regolamento attraverso uno strumento tecnico che non ha valore legislativo, ma che finirebbe comunque per influenzarne l’attuazione concreta.

Una questione di coerenza e credibilità per l’UE

Il caso riapre il dibattito sulla governance dell’intelligenza artificiale in Europa, e sul difficile equilibrio tra innovazione, diritti e sovranità digitale. Dopo aver promosso con forza una delle prime regolamentazioni al mondo nel settore dell’IA, l’Unione rischia ora di vederne vanificati gli effetti concreti nella fase esecutiva.

Gli eurodeputati chiedono quindi alla Commissione maggiore vigilanza, una revisione del codice prima della pubblicazione prevista per maggio 2025, e un ritorno alla coerenza con quanto deciso dal legislatore.

Conclusioni: il futuro della regolazione dell’intelligenza artificiale in Europa è in bilico tra le buone intenzioni della legge e i compromessi tecnici dell’attuazione. La sfida sarà garantire che i diritti fondamentali e l’interesse pubblico non restino sulla carta, ma diventino davvero centrali nella progettazione e nell’uso dei sistemi intelligenti.

Fonte: Ansa

Per saperne di più

Federico Baldini
Federico Baldinihttps://sotutto.it
Appassionato di nuove tecnologie e smartphone. Sono qui con l'obiettivo di fare informazione e spiegare in modo semplice tecnologie che all'apparenza possono sembrare complicate ma che fanno parte della nostra quotidianità e chissà del nostro futuro.
ARTICOLI CORRELATI

ARTICOLI CONSIGLIATI

Una via promettente per rendere gli antibiotici più efficaci

Un gruppo di ricercatori guidato da Zeynep Baharoglu dell’Institut Pasteur, in collaborazione con Inserm, CNRS e Université Paris Cité, ha identificato un meccanismo sorprendente...

Entro il 2100 ci saranno 42 giorni estivi in...

Una nuova ricerca scientifica indica che entro la fine del secolo l’Europa potrebbe vivere estati più lunghe di circa sei settimane rispetto a oggi....

Una gravità classica che crea entanglement? La nuova ipotesi...

L’idea è di quelle che fanno sobbalzare gli scienziati sulla sedia: e se la gravità classica, quella descritta da Einstein un secolo fa, fosse...

Secondo uno studio, il tuo ritmo intestinale rivela molto...

La frequenza delle sedute in bagno: un indicatore di saluteLa domanda "Quanto spesso vai in bagno?" potrebbe sembrare molto personale, ma la tua risposta...