La Commissione Europea ha pubblicato un rapporto, curato dal Centre for European Policy Studies (CEPS) per conto dell’Ufficio per l’Intelligenza Artificiale dell’UE, che analizza i feedback ricevuti da due consultazioni pubbliche in merito agli obblighi regolatori del nuovo AI Act. Le consultazioni si sono concentrate in particolare sulla definizione dei sistemi di AI e sulle pratiche vietate, che sono ufficialmente entrate in vigore il 2 febbraio 2025.
Indice degli argomenti:
Le preoccupazioni degli stakeholder
Il rapporto esamina le risposte a 88 domande suddivise in nove sezioni. La partecipazione è stata dominata dagli stakeholder industriali, che hanno rappresentato il 47,2% dei quasi 400 contributi, mentre la partecipazione dei cittadini è stata limitata al 5,74%. I partecipanti hanno richiesto definizioni più chiare per termini tecnici come “adattività” e “autonomia”, mettendo in guardia contro il rischio di regolamentare inavvertitamente il software convenzionale.
Preoccupazioni significative emergono sulle pratiche vietate come il riconoscimento delle emozioni, il punteggio sociale e l’identificazione biometrica in tempo reale. Gli stakeholder hanno chiesto esempi concreti per distinguere ciò che è vietato da ciò che rimane consentito nel quadro normativo.
L’alfabetizzazione all’AI diventa obbligo per operatori e fornitori
Un altro elemento chiave entrato in vigore il 2 febbraio 2025 è l’articolo 4 dell’AI Act, che impone a fornitori e utilizzatori di sistemi di IA di garantire un’adeguata alfabetizzazione all’intelligenza artificiale tra il personale e i soggetti che maneggiano tali sistemi per conto loro.
Per determinare i livelli di conoscenza adeguati, bisogna tenere conto del contesto d’uso, delle competenze tecniche, dell’esperienza, dell’istruzione e della formazione delle persone coinvolte. L’Ufficio per l’AI ha pubblicato linee guida dettagliate che spiegano le definizioni contenute nell’articolo 4, i requisiti di conformità, i meccanismi di enforcement e una serie di risorse utili per aiutare i soggetti interessati a comprendere e rispettare queste nuove disposizioni.
Nessun consulente scientifico capo per l’AI, nonostante decine di candidature
Secondo Cynthia Kroet, senior EU policy reporter di Euronews, la Commissione Europea non ha ancora nominato un consigliere scientifico capo per il proprio Ufficio per l’IA, nonostante abbia ricevuto “decine di candidature”. Il posto è vacante da novembre/dicembre 2024 e il regolamento per l’AI di uso generale entrerà in vigore il prossimo 2 agosto.
Il ruolo prevede la supervisione scientifica di alto livello su tutti i lavori dell’ufficio, in particolare sulla valutazione e il testing dei modelli general-purpose, in stretta collaborazione con l’unità dedicata alla sicurezza. La Commissione ha dichiarato che preferirebbe nominare una figura proveniente da un Paese europeo.
Uuk e Tamkivi: “Tagliamo la burocrazia, non le tutele sull’AI”. La Ue alla prova della competitività
In un editoriale pubblicato su Fortune, Risto Uuk e Sten Tamkivi – quest’ultimo partner del fondo europeo di venture capital Plural – sostengono che la competitività europea nell’IA deve puntare su una riduzione della burocrazia tradizionale, non sull’allentamento delle salvaguardie dell’AI Act.
Gli autori evidenziano come esperti indipendenti stiano collaborando con l’Ufficio per l’AI per sviluppare linee guida pratiche destinate alle aziende che operano con AI generalista, trasformando i principi regolatori in pratiche armonizzate tra Stati membri. Queste norme, secondo loro, impattano principalmente i grandi attori globali – come Meta o Google – e non le startup europee.
«Queste grandi corporation con risorse senza precedenti possono benissimo affrontare requisiti come le valutazioni da parte di terzi», spiegano, precisando che tali valutazioni servono a garantire che modelli come Llama di Meta o Gemini di Google non pongano rischi sistemici (cyberattacchi, rischi biologici, perdita di controllo). «Affermare che questi test siano troppo gravosi o inapplicabili è ridicolo».
Le salvaguardie del regolamento, aggiungono, rispecchiano pratiche consolidate nei settori farmaceutico, aeronautico e finanziario, dove le verifiche indipendenti rafforzano la fiducia del pubblico e degli investitori. «Per la crescita economica europea, il focus dovrebbe essere sulla riduzione della burocrazia d’impresa, non sulla sicurezza dell’AI».
Il valore del Codice di Condotta su sicurezza e affidabilità
In un altro intervento, Uuk ha elencato i principali benefici del Codice di Condotta per la sicurezza e l’affidabilità, sviluppato a partire dall’AI Act. Innanzitutto, il Codice traduce i requisiti vaghi del regolamento in indicazioni pratiche, affrontando aspetti come la valutazione dei modelli e la mitigazione dei rischi sistemici.
In secondo luogo, raccoglie le migliori pratiche di sicurezza delle principali aziende del settore – tra cui OpenAI, Anthropic e Google DeepMind – in un unico documento. Terzo, la Commissione Europea incoraggia l’adozione del Codice, offrendo vantaggi come una maggiore fiducia e una sorveglianza più snella per i firmatari; al contrario, i non firmatari sono soggetti a verifiche più stringenti.
Il Codice è destinato soprattutto a una dozzina di attori globali con modelli superiori a 10^25 FLOPs, come OpenAI, che ha recentemente ottenuto un finanziamento da 40 miliardi di dollari. Infine, è stato sviluppato tramite un processo democratico esemplare iniziato nell’ottobre 2024, con oltre mille stakeholder coinvolti in tre versioni e guidati da tredici presidenti indipendenti. «Un processo che si distingue nettamente dalla solita stesura di standard dominata dalle imprese».
Björn Ulvaeus (ABBA): “No a una rinuncia storica ai diritti degli autori”

Un intervento significativo è arrivato dal musicista Björn Ulvaeus, membro degli ABBA e presidente della CISAC (Confederazione Internazionale delle Società di Autori e Compositori), che si è rivolto alla Commissione Cultura e Istruzione del Parlamento Europeo criticando il Codice di Condotta.
«L’argomentazione secondo cui l’AI può svilupparsi solo se si indebolisce il diritto d’autore è falsa e pericolosa. L’AI non dovrebbe essere costruita sul furto», ha dichiarato. Ulvaeus ha definito questa tendenza una «rinuncia storica ai principi», denunciando il fatto che il Codice ignori le richieste di trasparenza del settore creativo. Ha poi invitato l’UE a guidare con fermezza la regolamentazione dell’AI, evitando di arretrare rispetto agli obiettivi originari dell’AI Act.
Un appello alla partecipazione: feedback sul sito dell’AI Act
Infine, il sito ufficiale dell’AI Act invita utenti e stakeholder a fornire feedback in 2 minuti, per migliorare le risorse disponibili. Il portale è consultato da oltre 150.000 utenti al mese e molte delle risorse sono state sviluppate direttamente in risposta ai suggerimenti della comunità.
«Grazie in anticipo per il tempo che dedicherete. Speriamo di potervi ripagare con informazioni mirate, di alta qualità, e rispondenti alle vostre esigenze».