È passato quasi un anno dall’entrata in vigore dell’AI Act dell’UE, eppure l’Europa sta ancora cercando di orientarsi tra le sue ambiguità. Sebbene una regolamentazione sia necessaria per modellare l’impatto dell’AI sulla società, l’attuale quadro normativo spesso risulta eccessivo e paternalistico, più che abilitante. Servono regole più chiare, non ulteriori restrizioni, per bilanciare innovazione e responsabilità. Se un cittadino sceglie di condividere pubblicamente i propri dati, tale scelta dovrebbe essere rispettata. Fortunatamente, la normativa include meccanismi flessibili che potrebbero consentire correzioni di rotta. Il 2 agosto 2025 rappresenta una scadenza cruciale per la conformità—e potenzialmente un punto di svolta per le ambizioni regolatorie dell’UE.
Entro il 2 agosto 2025, tutti gli Stati membri dell’UE dovranno designare formalmente le autorità nazionali competenti per l’applicazione dell’AI Act. Questi enti supervisioneranno le valutazioni di conformità dei sistemi AI ad alto rischio e riferiranno all’European AI Office, che inizierà ufficialmente il proprio ruolo di supervisione sui modelli GPAI in quella stessa data. Queste istituzioni costituiranno l’ossatura operativa della struttura regolatoria dell’AI Act.
L’AI Act impone obblighi significativi ai fornitori di sistemi GPAI:
Questi requisiti mirano a rendere lo sviluppo dell’AI più responsabile, ma aumentano i costi di conformità—soprattutto per gli sviluppatori più piccoli.
La mancata conformità può comportare sanzioni fino a 15 milioni di euro o al 3% del fatturato globale. Ogni Stato membro dovrà inoltre presentare una relazione biennale sulle risorse finanziarie e umane dedicate all’applicazione. A metà 2025, non sono ancora state avviate azioni legali dirette ai sensi dell’AI Act, ma l’applicazione del GDPR già tocca questioni legate all’AI.
Due casi mostrano come i diritti sui dati vengano messi alla prova con le normative attuali:
Questi casi dimostrano che la protezione dei dati resta il fronte principale, anche se le controversie specifiche sull’AI Act sono ancora agli inizi.
Sotto pressione da parte di leader industriali statunitensi e stakeholder europei, la Commissione Europea sta rivedendo alcune delle sue proposte più rigide. Henna Virkkunen, responsabile per le politiche digitali dell’UE, ha annunciato il ritiro della norma che consentiva ai cittadini di citare in giudizio le aziende AI per danni—un tentativo di creare un ambiente più favorevole agli investimenti.
Meta, ad esempio, ha ripreso l’addestramento dei propri modelli AI sui dati degli utenti europei, dopo averlo sospeso a causa dell’incertezza normativa. I critici sostengono che l’UE stia cedendo alle pressioni statunitensi, ma i regolatori negano di aver compromesso le tutele fondamentali.
È improbabile che emerga un quadro normativo globale unico per l’AI. Persistono divergenze su trasparenza dei modelli, diritti sui dati e classificazione dei rischi. Tuttavia, aziende come Meta e OpenAI sostengono regole più armonizzate per ridurre la frammentazione e i costi di conformità.
Il 2 agosto 2025 segna il passaggio dalla preparazione normativa all’applicazione operativa. Le aziende che operano in Europa devono considerare questa data come una scadenza vincolante, soprattutto per la trasparenza dei modelli GPAI e l’allineamento con le autorità nazionali. Dal 2 agosto 2026, i sistemi AI ad alto rischio saranno pienamente soggetti a controllo.
I decisori politici devono sfruttare questo periodo di transizione per chiarire i termini ambigui e garantire che le regole siano applicabili senza soffocare l’innovazione. L’ultimo report degli stakeholder sollecita definizioni più precise per concetti critici come “adaptiveness” e chiede linee guida concrete su pratiche vietate—come la sorveglianza biometrica in tempo reale e il riconoscimento delle emozioni.
In definitiva, il successo dell’AI Act dell’UE dipenderà dalla sua capacità di regolamentare senza bloccare il progresso. Un approccio più agile, chiaro e proporzionato servirà meglio sia gli innovatori che i cittadini.