Legge 132/2025, per la prima volta l’Italia regolamenta l’uso dell'Intelligenza Artificiale
L’Italia e la regolamentazione dell'Intelligenza Artificiale: dalla visione europea del AI Act alla legge Nazionale
Un quadro normativo organico che mira a bilanciare l'innovazione tecnologica con l'etica e la tutela dei diritti fondamentali: la Legge 23 settembre 2025, n. 132, segna l'ingresso dell'Italia nell'era della regolamentazione dell'Intelligenza Artificiale (IA).
Questa normativa nazionale si pone come strumento di integrazione e specificazione della disciplina europea, in particolare in riferimento all'AI Act (Regolamento del Parlamento europeo e del Consiglio sull'intelligenza artificiale), fornendo al Paese un corpo di regole completo.
Legge n. 132/2025: principi fondamentali e integrazione europea
La Legge n. 132/2025, in vigore dal 10 ottobre 2025, istituisce il primo impianto normativo completo sull'IA in Italia.
L'obiettivo è duplice: promuovere lo sviluppo e l'eccellenza tecnologica nazionale e, al contempo, garantire i diritti fondamentali dei cittadini, la trasparenza e la sicurezza nell'utilizzo dei sistemi di IA, in linea con l'approccio basato sul rischio dell'AI Act europeo.
Pilastri etici e giuridici
La normativa italiana si fonda su principi fondamentali che rafforzano il controllo umano e la responsabilità:
Trasparenza e controllo umano: viene introdotto il principio di "non sostituzione", in particolare nel contesto della Pubblica Amministrazione (PA) e del settore sanitario. L'IA è concepita come strumento di supporto alla decisione, ma il controllo finale e la responsabilità rimangono in capo all'essere umano.
Responsabilità Innovativa: vengono definiti i criteri di responsabilità per danni causati dai sistemi intelligenti, introducendo meccanismi per proporzionare obblighi e garanzie, inclusi aggiornamenti in materia di responsabilità civile e penale.
Contrasto ai Deepfake e Nuovi Reati: viene stabilito l'obbligo di informativa per i contenuti generati o alterati dall'IA e un nuovo reato specifico di deepfake, volto a contrastare l'uso ingannevole della tecnologia per la manipolazione della realtà.
Impatto settoriale strategico
La Legge 132/2025 introduce regolamentazioni specifiche per i settori più critici:
IA e PMI: opportunità e obblighi di conformità
La normativa non differenzia gli obblighi in base alla dimensione aziendale, ma li calibra in funzione del livello di rischio e dell'utilizzo del sistema di IA, in piena coerenza con la logica dell'AI Act.
Per le Piccole e Medie Imprese (PMI) che adottano o forniscono soluzioni di IA, questo si traduce in precise responsabilità di compliance.
Principali Obblighi per le PMI
L'impatto maggiore si concentra sulla trasparenza, la documentazione e la gestione del rischio:
Valutazione del Rischio (DPIA): le PMI che impiegano sistemi classificati come "ad alto rischio" (ad esempio, per la selezione del personale, la valutazione del credit score o la gestione reclami con impatto significativo sul cliente) devono effettuare Valutazioni d'Impatto (DPIA) e adempiere a rigidi obblighi di documentazione tecnica e gestione della qualità.
Obbligo di Informativa Rafforzata:
Verso i Clienti: le PMI che erogano prestazioni professionali (studi legali, consulenze) tramite IA devono comunicare al cliente, con chiarezza, le modalità di utilizzo dei sistemi, garantendo che il lavoro intellettuale umano resti prevalente.
Verso i Dipendenti: nelle funzioni HR (selezione, monitoraggio, valutazione), l'uso dell'IA richiede informative chiare ai lavoratori, garantendo l'assenza di discriminazioni e la tutela della dignità umana.
Tracciabilità e Sicurezza: l'introduzione del reato di deepfake e l'aggravante per i reati commessi tramite IA (es. manipolazione del mercato) impongono alle PMI di garantire l'autenticità dei contenuti generati e l'estrema sicurezza dei sistemi.
Vantaggi competitivi
Nonostante gli obblighi, la Legge 132/2025 mira a promuovere l'innovazione responsabile come un fattore di competitività:
Incentivi: sono previste deleghe al Governo per introdurre incentivi mirati a favore delle imprese che sviluppano o adottano soluzioni di IA etiche, trasparenti e a norma.
Affidabilità: la conformità alle nuove regole (trasparenza, controllo umano, affidabilità) trasforma l'adeguamento normativo in un vantaggio competitivo e in un elemento cruciale di fiducia per clienti e partner.
Checklist di conformità per le PMI
Per essere conformi alla Legge 132/2025, le PMI dovrebbero adottare la seguente strategia:
Mappatura: censire tutti i sistemi di IA in uso (dai chatbot agli strumenti di analisi).
Valutazione del Rischio: classificare e valutare il rischio associato a ciascun sistema, con particolare attenzione a quelli che influenzano decisioni cruciali.
Documentazione: aggiornare tutta la documentazione aziendale (informative privacy, contratti, lettere d'incarico) per includere le clausole relative all'uso dell'IA.
Formazione: investire nella formazione del personale sui rischi e sull'uso responsabile delle nuove tecnologie.

Commenti
Posta un commento