Con l’approvazione definitiva del Regolamento Europeo sull’Intelligenza Artificiale – l’AI Act, l’Unione Europea compie un passo unico a livello mondiale: è la prima al mondo ad aver definito un quadro normativo strutturato, vincolante e completo sull’intelligenza artificiale. Una scelta che mira non solo a tutelare i diritti fondamentali delle persone e a garantire la sicurezza dei sistemi tecnologici, ma anche ad accompagnare le imprese in un percorso di adozione responsabile, trasparente e sostenibile dell’AI.

Il calendario dell’AI Act segna tre tappe fondamentali:

  • 1° agosto 2024: il Regolamento entra ufficialmente in vigore, aprendo una nuova fase per l’intelligenza artificiale nell’UE e tracciando una direzione chiara per l’innovazione basata su regole comuni; 
  • 2 febbraio 2025: diventano operative le prime disposizioni, tra cui il divieto di pratiche ad alto rischio per la sicurezza e i diritti, come l’uso manipolativo dell’AI o il riconoscimento facciale in contesti non autorizzati; 
  • 2 agosto 2026: tutte le norme previste saranno pienamente applicabili, stabilendo requisiti stringenti per lo sviluppo, l’implementazione e l’uso dell’intelligenza artificiale in ogni settore economico e istituzionale.

Per approfondire il significato reale di questa trasformazione e capire come prepararsi al meglio, abbiamo intervistato Pierluigi Casale, tra i massimi esperti internazionali di AI Governance, former AI Officer al Parlamento Europeo, e docente del nuovo corso Data Masters AI Act: Governance, Rischi e Implementazione dell’AI in azienda”.

Un quadro normativo senza precedenti

L’AI Act rappresenta il primo tentativo a livello globale di regolamentare in maniera completa l’intelligenza artificiale, distinguendone usi consentiti, ad alto rischio o vietati, e imponendo una serie di obblighi in base alla classificazione dei sistemi.

Secondo Casale, non si tratta di un intervento tecnico, ma di una ridefinizione profonda del rapporto tra tecnologia, impresa e società:

“L’AI Act cambia radicalmente il modo in cui le aziende europee devono approcciarsi all’intelligenza artificiale. Non si tratta solo di introdurre obblighi, ma di costruire un sistema di governance dove sicurezza, diritti fondamentali e responsabilità sociale diventano parte integrante di ogni progetto tecnologico”.

Il regolamento impone a tutte le imprese – non solo a chi sviluppa tecnologie AI – di valutare e gestire i rischi legati all’intelligenza artificiale, integrando nuovi protocolli di trasparenza, tracciabilità e monitoraggio continuo. I sistemi ad alto rischio (ad esempio quelli usati per selezione del personale, sanità, credito, formazione o sicurezza) sono sottoposti a una regolamentazione molto rigida, che comprende:

  • Valutazioni d’impatto, 
  • Controlli di qualità sui dati utilizzati, 
  • Meccanismi di audit interni, 
  • Sistemi di governance trasversali. 

Non solo: anche le tecnologie più generali, come i modelli di AI generativa o i sistemi fondazionali, saranno soggetti a obblighi specifici di trasparenza, documentazione e mitigazione dei rischi, una novità assoluta introdotta dal Capo V del regolamento.

“L’AI Act trasforma l’AI da leva tecnica a elemento strutturale del governo d’impresa. Non basta essere innovativi: sarà necessario dimostrare di saper innovare in modo sicuro, responsabile e conforme alle nuove regole europee”, sottolinea Casale.

Perché un regolamento così dettagliato? I rischi da cui nasce l’AI Act

Secondo Casale la spinta alla regolamentazione nasce da fattori concreti. Negli ultimi anni si sono moltiplicati i casi di uso distorto o incontrollato dell’AI, Eccone alcuni esempi: 

  • Algoritmi discriminatori nei processi di assunzione, 
  • Impieghi non autorizzati di dati biometrici, 
  • Sistemi opachi di scoring o raccomandazione, 
  • Disinformazione generata automaticamente, 
  • Uso invasivo in ambito di sicurezza e sorveglianza. 

A questi si aggiunge la crescente opacità dei modelli più complessi, che rende difficile per utenti e autorità capire come vengano prese determinate decisioni.

È proprio guardando a queste criticità che si è deciso di fare una scelta verso la strada della regolamentazione, il cui obiettivo non è frenare l’innovazione, ma incanalarla in una direzione sicura, trasparente e compatibile con i valori europei. L’AI Act nasce proprio per costruire fiducia, promuovere un’adozione responsabile dell’AI e prevenire gli abusi prima che diventino sistemici.”

 

Gli errori (ancora troppo diffusi) delle imprese

Una parte cruciale dell’AI Act riguarda la responsabilità degli utilizzatori. Molte aziende – soprattutto PMI – rischiano infatti di sottovalutare l’impatto del regolamento, credendo che gli obblighi si applichino solo ai produttori delle tecnologie.

“È un errore grave. L’AI Act è molto chiaro: anche chi integra o utilizza soluzioni di terzi è responsabile della conformità”, avverte Casale. “Adottare strumenti AI senza valutare il rischio, senza garantire la qualità dei dati o senza avere processi di monitoraggio, significa esporsi a rischi legali e reputazionali importanti.

E in molti casi, aggiunge, “manca una preparazione interna adeguata: figure chiave come i manager, i responsabili IT o i team di compliance non sono ancora formati sui requisiti introdotti dall’AI Act, tra cui l’obbligo di alfabetizzazione interna in materia di AI (Art. 4). Senza una cultura solida sull’uso responsabile dell’AI, le aziende rischiano di sottovalutare la complessità della regolazione e di esporsi a gravi danni reputazionali e normativi.”

Le PMI: più esposte, ma con grandi opportunità

Ma come possono le piccole e medie imprese affrontare queste sfide, spesso con risorse limitate?

È vero, le PMI rischiano di essere le più esposte agli impatti dell’AI Act proprio perché, nella maggior parte dei casi, non dispongono di strutture legali o di compliance dedicate. Il rischio principale è quello di ritrovarsi inadempienti senza averne piena consapevolezza, soprattutto se si utilizzano sistemi classificati come ad alto rischio senza applicare le procedure di conformità previste. 

Tuttavia, il nuovo quadro normativo non rappresenta solo un vincolo. Per le PMI che sapranno muoversi in modo corretto, si apre anche un’opportunità importante: quella di distinguersi sul mercato come imprese affidabili, etiche e sicure. L’AI Act stesso, attraverso strumenti come i “sandbox normativi” (Art. 53), offre percorsi di supporto specifici per le realtà più piccole, facilitando l’innovazione responsabile e riducendo i costi di adeguamento.

Il vero vantaggio competitivo delle PMI sarà la capacità di integrare fin da subito principi di trasparenza, qualità dei dati e gestione del rischio, trasformando la compliance da mero obbligo a valore aggiunto per clienti, investitori e partner..

 

Il ruolo cruciale del top management

Uno dei messaggi più forti lanciati dall’AI Act è rivolto direttamente ai vertici aziendali. CEO e manager non potranno più delegare completamente ad altri ma dovranno acquisire maggiore consapevolezza: 

“La gestione dell’AI è diventata una questione di leadership”, sottolinea Casale. “Il top management deve capire che ogni investimento in AI è anche una decisione di governance, che tocca la qualità dei processi decisionali, la fiducia dei clienti e la reputazione dell’azienda”.

Il corso Data Masters per affrontare l’AI Act: formare chi guida il cambiamento

Per aiutare le imprese ad affrontare in modo strutturato le nuove sfide introdotte dal Regolamento Europeo sull’intelligenza artificiale, Data Masters insieme a Pierluigi Casale ha creato il programma più completo ed aggiornato in materia:  “AI Act: governance, rischi e implementazione dell’AI in azienda”

Il programma, che si svolgerà a partire dal 20 maggio 2025, è pensato per fornire strumenti concreti a chi ha ruoli decisionali in azienda per comprendere a fondo il Regolamento Europeo e guidare una trasformazione digitale che sia non solo efficace, ma conforme, sicura e responsabile.

Tra gli obiettivi chiave del percorso:

  • Comprendere i principi etici e i rischi dell’AI con particolare attenzione ai principali incidenti industriali, bias, discriminazione algoritmica, sorveglianza e disinformazione.
  • Conoscere la struttura, i divieti e gli obblighi dell’AI Act, classificando i sistemi IA in base al livello di rischio e interpretando correttamente le implicazioni normative per fornitori e utilizzatori.
  • Applicare strategie di compliance e governance, attraverso strumenti pratici come documentazione tecnica, codici di condotta, standard tecnici e l’interazione tra AI Act e GDPR.
  • Valutare e gestire scenari complessi, inclusi i rischi sistemici legati all’Intelligenza Artificiale Generale (AGI), tramite simulazioni interattive e analisi di casi reali con supporto digitale. 

“Insegniamo a vedere l’AI non come un tema tecnico riservato a pochi, ma come una responsabilità diffusa che richiede visione, metodo e cultura organizzativa”, sottolinea Casale.

L’AI Act richiede una nuova idea di leadership. Non è un vincolo burocratico, ma un’occasione per costruire innovazione su basi più solide. Chi saprà guidare questo cambiamento sarà premiato dal mercato.”

Una prospettiva perfettamente in linea con la missione di Data Masters, come spiega il Presidente e Co-Founder Luigi Congedo:

“Con questo programma vogliamo dare alle aziende italiane un ulteriore strumento per implementare l’intelligenza artificiale con la maturità e la preparazione necessarie: portare l’AI in azienda non è più solo una questione di efficienza e conoscenza tecnica, è anche una materia di governance, di cultura aziendale, di strategia a lungo termine. Pierluigi Casale è uno dei maggiori esperti sul tema, e siamo orgogliosi di portare la sua profonda esperienza dentro un percorso formativo che aiuta i leader nella sfida più importante: portare concretamente l’AI in azienda e sfruttarne a pieno il potenziale.” .

NEWSLETTER

Ricevi direttamente sulla tua mail gli ultimi articoli pubblicati nella nostra sezione AI NEWS per rimanere sempre aggiornato e non perderti nessun contenuto.

AUTORE:Data Masters Apri profilo LinkedIn

Data Masters è l’AI Academy italiana che offre percorsi di formazione nei settori della Data Science, del Machine Learning e dell’Intelligenza Artificiale. I nostri corsi di formazione sono progettati per applicare immediatamente l’Intelligenza Artificiale in ogni settore lavorativo e accompagnare aziende e professionisti in percorsi di upskilling e reskilling.