domenica, 30 Marzo 2025
spot_imgspot_imgspot_imgspot_img
HomeTecnologia e ScienzeAI Act: bozza dei codici di condotta sotto accusa, “favorisce le Big...

AI Act: bozza dei codici di condotta sotto accusa, “favorisce le Big Tech e mina la democrazia”

Si accende il dibattito attorno all’attuazione dell’AI Act, il regolamento europeo sull’intelligenza artificiale approvato nei mesi scorsi. Alcuni parlamentari europei, tra cui Brando Benifei, relatore del testo, hanno espresso forti riserve sulla bozza attuale dei codici di condotta per i modelli di IA a uso generale, come GPT-4 di OpenAI.

In una lettera indirizzata alla vicepresidente della Commissione europea Henna Virkkunen, gli eurodeputati denunciano una pericolosa deriva normativa, che rischia di compromettere la coerenza e l’efficacia delle misure previste dal regolamento.

Il codice per l’IA generale: una svolta contestata

Il nodo centrale della critica riguarda il codice di buone pratiche in fase di definizione, che dovrà specificare come applicare l’AI Act ai modelli di intelligenza artificiale a uso generale, in particolare a quelli considerati a rischio sistemico. Si tratta di modelli avanzati, potenti e potenzialmente impattanti sul tessuto sociale, economico e democratico dell’Unione.

Secondo i deputati, le bozze attuali stanno diluendo le responsabilità previste dalla legge, trasformando obblighi vincolanti in semplici raccomandazioni volontarie. Questo processo, affermano, rappresenta una reinterpretazione pericolosa del testo giuridico, che finirebbe per svuotarlo di significato.

“Rischi per la democrazia trattati come opzionali”

Nella lettera, gli eurodeputati criticano con forza il fatto che, nella bozza attuale, la valutazione e la mitigazione dei rischi per i diritti fondamentali e per la democrazia siano diventate facoltative. Eppure, proprio questi rischi erano stati identificati come elementi centrali da monitorare e gestire nei modelli di IA ad alto impatto.

“Non è mai stata questa l’intenzione dell’accordo politico raggiunto nel trilogo”, scrivono i firmatari, riferendosi al processo legislativo condiviso tra Parlamento, Consiglio e Commissione.

Secondo l’AI Act approvato, i fornitori di IA sistemica devono:

  • Valutare e ridurre i rischi connessi all’uso dei loro modelli
  • Segnalare incidenti gravi
  • Sottoporre i sistemi a test avanzati
  • Garantire elevati standard di sicurezza informatica

Tutte misure che, a detta dei deputati, verrebbero ora relativizzate o addirittura rese opzionali nelle nuove linee guida, lasciando ampi margini interpretativi ai grandi attori privati.

Il timore: un codice scritto su misura per le Big Tech

Dietro questa svolta, secondo i critici, ci sarebbe una pressione crescente da parte delle grandi aziende tecnologiche per ridurre l’impatto regolatorio della legge. Il risultato? Un documento tecnico che rischia di sbilanciare l’intero impianto normativo a loro favore, indebolendo la tutela dell’interesse pubblico e dei diritti civili.

Il gruppo di parlamentari denuncia una perdita di trasparenza e controllo democratico, accusando la Commissione di permettere una “riscrittura de facto” del regolamento attraverso uno strumento tecnico che non ha valore legislativo, ma che finirebbe comunque per influenzarne l’attuazione concreta.

Una questione di coerenza e credibilità per l’UE

Il caso riapre il dibattito sulla governance dell’intelligenza artificiale in Europa, e sul difficile equilibrio tra innovazione, diritti e sovranità digitale. Dopo aver promosso con forza una delle prime regolamentazioni al mondo nel settore dell’IA, l’Unione rischia ora di vederne vanificati gli effetti concreti nella fase esecutiva.

Gli eurodeputati chiedono quindi alla Commissione maggiore vigilanza, una revisione del codice prima della pubblicazione prevista per maggio 2025, e un ritorno alla coerenza con quanto deciso dal legislatore.

Conclusione: il futuro della regolazione dell’intelligenza artificiale in Europa è in bilico tra le buone intenzioni della legge e i compromessi tecnici dell’attuazione. La sfida sarà garantire che i diritti fondamentali e l’interesse pubblico non restino sulla carta, ma diventino davvero centrali nella progettazione e nell’uso dei sistemi intelligenti.

Fonte: Ansa

articolo originale

Ricevi le ultime attualità sul mondo tech!

Federico Baldini
Federico Baldinihttps://sotutto.it
Appassionato di nuove tecnologie e smartphone. Sono qui con l'obiettivo di fare informazione e spiegare in modo semplice tecnologie che all'apparenza possono sembrare complicate ma che fanno parte della nostra quotidianità e chissà del nostro futuro.
RELATED ARTICLES

Ultimi articoli