E-Mail: [email protected]
- L'AI Act entra in vigore il 2 agosto 2025, dopo il 2 febbraio 2025.
- Sanzioni fino a 35 milioni di euro o il 7% del fatturato.
- L'AgID in Italia supervisionerà gli organismi di valutazione.
Il quadro regolamentare concernente l’intelligenza artificiale sta vivendo una profonda evoluzione con l’approssimarsi dell’attuazione di nuove disposizioni dell’AI Act, calendarizzata per il 2 agosto 2025. Tale momento segna un ulteriore sviluppo cruciale dopo l’entrata in vigore dei divieti concernenti le pratiche considerate pericolose e l’obbligo di formazione digitale, già operativi dal 2 febbraio 2025. Le nuove regole si concentrano essenzialmente sui sistemi a rischio elevato, sui modelli di intelligenza artificiale per scopi generali (GPAI) e sulle relative sanzioni, escludendo quelle particolari per i GPAI.
L’AI Act, il primo provvedimento normativo a livello globale in materia di intelligenza artificiale, detta le regole relative allo sviluppo, alla commercializzazione e all’utilizzo dei sistemi di IA.

Sistemi ad alto rischio e organismi notificati
Un ambito fondamentale dell’AI Act regola il ruolo delle autorità di notifica e degli organismi notificati, preposti alla valutazione dei sistemi di IA ad alto rischio. Ogni Stato membro ha la responsabilità di designare un’autorità incaricata della supervisione, della convalida e del monitoraggio degli enti accreditati. In Italia, tale ruolo dovrebbe essere assegnato all’ AgID (Agenzia per l’Italia Digitale). Tale autorità ha l’incarico di valutare l’adeguatezza di tali organismi e di garantire che rispettino i requisiti fissati.
Gli organismi notificati, a loro volta, sono enti autorizzati a svolgere attività di verifica della conformità, come revisioni e controlli, sui sistemi di IA ad alto rischio. Essi sono tenuti a dimostrare terzietà, abilità tecnica, adeguatezza delle risorse e assenza di conflitti di interesse, oltre a preservare la riservatezza su ogni informazione sensibile e a comunicare alle autorità qualsiasi cambiamento che possa incidere sulla loro abilitazione. È previsto un controllo costante da parte delle autorità, che devono eseguire verifiche periodiche e, qualora necessario, hanno facoltà di revocare o sospendere l’abilitazione.
- Finalmente una regolamentazione chiara sull'IA! 👍 Ma......
- AI Act: un freno all'innovazione? 🤔 Vediamo......
- E se l'AI Act fosse un'opportunità nascosta? 🚀......
Modelli di IA di uso generale (GPAI): obblighi e responsabilità
Il Capo V dell’AI Act specifica i doveri per i modelli di intelligenza artificiale per scopi generali (General Purpose AI o GPAI), concentrandosi principalmente su quelli con un forte impatto. Un modello GPAI viene identificato come un sistema che dimostra un’estesa duttilità negli obiettivi per cui è utilizzabile, manifestando competenze rilevanti in un’ampia gamma di funzioni distinte, indipendentemente dalla modalità di distribuzione sul mercato.
Un modello GPAI ad alto impatto (connesso a un rischio sistemico) è un modello che detiene capacità notevolmente performanti, stabilite tramite elementi come la complessità, la preparazione computazionale e la dimensione dell’insieme di dati, e che rappresenta una minaccia per la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia o lo Stato di diritto. La Commissione valuta molteplici parametri, inclusi i risultati del modello (valutati in base ai suoi elementi interni), la quantità e la qualità dei dati impiegati per la sua preparazione, la potenza di calcolo consumata durante il processo di addestramento, le risorse necessarie per lo sviluppo, la portata dell’effetto reale o potenziale, la sua attitudine a influenzare diritti fondamentali, sicurezza, ambiente, democrazia o stato di diritto, e il livello di autonomia e generalità delle sue funzionalità.
I modelli GPAI devono fornire documentazione tecnica che esponga l’architettura, i dati di addestramento e le funzionalità del modello, a redigere e diffondere un riepilogo dei dati utilizzati per la formazione, e ad implementare misure per garantire la conformità con la normativa UE sul diritto d’autore, facilitando l’individuazione di contenuti protetti. I modelli GPAI ad alto impatto sono soggetti a requisiti più stringenti, che comprendono una valutazione preliminare dei rischi sistemici, un monitoraggio costante del loro funzionamento, la segnalazione di incidenti gravi, e audit e test indipendenti.
La governance è suddivisa su vari livelli, con responsabilità condivise tra autorità nazionali e un organismo a livello europeo. Ogni Stato membro è chiamato a designare una o più autorità responsabili dell’attuazione del regolamento a livello nazionale. La Commissione Europea istituisce l’Ufficio europeo per l’AI, che ha l’incarico di coordinare l’applicazione del Regolamento per i modelli GPAI, promuovere la cooperazione tra Stati membri e supportare l’armonizzazione, partecipare alle indagini sui GPAI e fornire orientamenti tecnici. Il Comitato europeo per l’intelligenza artificiale è un forum consultivo formato dai rappresentanti delle autorità nazionali, che fornisce pareri alla Commissione, promuove prassi comuni e coopera con il Board europeo per la protezione dei dati.
Sanzioni e riservatezza
L’AI Act prevede un sistema di sanzioni amministrative per le violazioni delle norme, con importi proporzionali alla gravità dell’infrazione. Per le violazioni più gravi relative alla violazione dei divieti, le sanzioni possono arrivare fino a 35 milioni di euro o al 7% del fatturato annuo globale. Per le infrazioni concernenti i requisiti dei sistemi a rischio elevato, le penalità possono raggiungere i 15 milioni di euro o il 3% del fatturato. Per la presentazione di informazioni errate o incomplete, le multe possono estendersi fino a 7,5 milioni di euro o all’ 1% del fatturato. Le cifre variano anche in relazione alla grandezza dell’organizzazione e alla natura della violazione, con la possibilità di multe ridotte per le piccole e medie imprese e le nuove imprese.
Nell’ambito dell’applicazione del Regolamento, la Commissione, il Comitato europeo e le autorità nazionali sono obbligate a mantenere la segretezza in merito a tutte le informazioni riservate ottenute. *La divulgazione di dati sensibili è proibita, a meno che non sia espressamente autorizzata dalle disposizioni di legge oppure si ottenga il preventivo assenso della persona interessata. Quest’obbligo si estende anche ai membri e ai collaboratori degli organismi notificati, i quali devono rispettare le normative europee e nazionali in materia di riservatezza e segreto professionale.
Verso un futuro regolamentato: implicazioni economiche e finanziarie
L’entrata in vigore dell’AI Act rappresenta un punto di svolta nel panorama dell’intelligenza artificiale, con implicazioni significative per l’economia, la finanza, il risparmio e gli investimenti. Le aziende che sviluppano e utilizzano sistemi di IA dovranno adeguarsi alle nuove normative, investendo in conformità e trasparenza. Questo potrebbe comportare costi aggiuntivi, ma anche opportunità per sviluppare soluzioni più sicure, affidabili ed etiche.
L’AI Act mira a promuovere un’intelligenza artificiale responsabile e sostenibile, che rispetti i diritti fondamentali e contribuisca al benessere della società. Questo potrebbe favorire l’innovazione e la crescita economica, attirando investimenti e creando nuovi posti di lavoro. Allo stesso tempo, l’AI Act potrebbe limitare l’uso di alcune applicazioni di IA considerate troppo rischiose o invasive, proteggendo i cittadini e le imprese da potenziali danni.
Per navigare in questo nuovo scenario, è fondamentale comprendere le implicazioni dell’AI Act e adottare strategie adeguate. Gli economisti e gli esperti finanziari possono svolgere un ruolo chiave nell’analizzare l’impatto delle nuove normative sull’economia e sui mercati finanziari, fornendo consulenza e supporto alle aziende e agli investitori.
Un concetto base di economia e finanza applicabile a questo tema è la gestione del rischio. L’AI Act impone alle aziende di valutare e mitigare i rischi associati all’uso dell’IA, il che richiede una solida comprensione dei principi di gestione del rischio.
Un concetto avanzato è l’analisi costi-benefici.* Le aziende devono valutare i costi di conformità all’AI Act rispetto ai benefici derivanti dall’uso dell’IA, tenendo conto dei rischi e delle opportunità.
In definitiva, l’AI Act rappresenta una sfida e un’opportunità per l’Europa e per il mondo intero. Sarà fondamentale lavorare insieme per garantire che l’intelligenza artificiale sia utilizzata in modo responsabile e sostenibile, a beneficio di tutti.







