IA: L’Italia ha una nuova Legge

— by

Introduzione: Un Nuovo Quadro Normativo per l’Intelligenza Artificiale

Con la promulgazione della Legge 23 settembre 2025, n. 132, l’Italia si dota di un quadro normativo organico per l’intelligenza artificiale. La legge definisce i principi fondamentali per la ricerca, la sperimentazione, lo sviluppo e l’applicazione dei sistemi di IA, con il duplice obiettivo di cogliere le opportunità offerte da questa tecnologia e, al contempo, garantire la piena tutela dei diritti fondamentali. Questa normativa nazionale deve essere interpretata e applicata in conformità con il quadro europeo, in particolare con il Regolamento (UE) 2024/1689. Questo articolo esplora i punti salienti della nuova legge, analizzando le implicazioni pratiche per imprese, professionisti e cittadini.

1. I Principi Fondamentali: L’Uomo al Centro dell’Innovazione

La legge stabilisce un insieme di principi cardine che devono guidare l’intero ciclo di vita dei sistemi di intelligenza artificiale, ponendo l’essere umano al centro del processo di innovazione. I concetti chiave sono delineati negli articoli 1, 3 e 4.

  • Approccio Antropocentrico: L’IA deve essere sviluppata e applicata nel pieno rispetto dell’autonomia e del potere decisionale dell’uomo. La tecnologia è uno strumento al servizio della persona, non il contrario (Art. 3, comma 3).
  • Rispetto dei Diritti: Lo sviluppo e l’utilizzo dei sistemi di IA devono avvenire nel rispetto dei diritti fondamentali garantiti dalla Costituzione e dal diritto dell’Unione Europea. Tra i principi richiamati figurano trasparenza, proporzionalità, sicurezza, protezione dei dati personali, non discriminazione e parità dei sessi (Art. 3, comma 1).
  • Sorveglianza Umana: Deve essere sempre assicurata la possibilità di una supervisione e di un intervento umano efficace sui sistemi di IA, per prevenire errori e garantire che le decisioni finali non siano completamente automatizzate (Art. 3, comma 3).
  • Cybersicurezza: La sicurezza informatica è considerata una precondizione essenziale. Deve essere garantita lungo tutto il ciclo di vita dei sistemi di IA, dall’addestramento all’implementazione, per assicurarne la resilienza contro tentativi di alterazione (Art. 3, comma 6).
  • Tutela dei Minori: Il legislatore introduce regole specifiche per l’accesso dei minori ai sistemi di IA. È richiesto il consenso dei genitori (o di chi esercita la responsabilità genitoriale) per i minori di 14 anni, mentre i minori che hanno compiuto 14 anni possono esprimere autonomamente il proprio consenso (Art. 4, comma 4). Questo meccanismo di soglia anagrafica ricalca direttamente l’approccio del GDPR (in particolare, l’attuazione italiana dell’Art. 8). La legge armonizza quindi le regole di accesso all’IA con i principi consolidati sulla protezione dei dati personali dei minori, creando un ambiente giuridico coerente per sviluppatori e fornitori di servizi.

2. L’Impatto sui Settori Chiave: Sanità, Lavoro e Professioni

La legge non si limita a enunciare principi generali, ma introduce disposizioni specifiche per regolare l’impiego dell’intelligenza artificiale in alcuni degli ambiti più delicati della vita sociale ed economica del Paese.

2.1 Sanità e Ricerca

Il settore sanitario è uno degli ambiti in cui le potenzialità dell’IA sono più evidenti. La legge (Art. 7, 8, 10) interviene per bilanciare innovazione e tutela del paziente.

  1. Supporto, non Sostituzione: Viene chiarito che i sistemi di IA in ambito sanitario sono strumenti di supporto per i processi di prevenzione, diagnosi e cura. La decisione finale, tuttavia, è sempre rimessa al professionista medico (Art. 7, comma 5).
  2. Informazione al Paziente: Ogni paziente ha il diritto di essere informato in modo chiaro sull’impiego di tecnologie di intelligenza artificiale nei percorsi diagnostici e terapeutici che lo riguardano (Art. 7, comma 3).
  3. Impulso alla Ricerca: Il trattamento di dati per la ricerca scientifica e la sperimentazione con IA nel settore sanitario è dichiarato di “rilevante interesse pubblico”. Questo permette l’uso secondario di dati personali, a condizione che siano privi di elementi identificativi diretti, semplificando così l’addestramento di nuovi modelli (Art. 8, commi 1 e 2).
  4. Piattaforma Nazionale IA: Viene istituita presso l’AGENAS (Agenzia Nazionale per i Servizi Sanitari Regionali) una piattaforma nazionale di intelligenza artificiale, con lo scopo di fornire servizi di supporto ai professionisti sanitari e agli utenti nell’accesso ai servizi (Art. 10).

2.2 Mondo del Lavoro

L’introduzione dell’IA nei contesti lavorativi solleva importanti questioni sui diritti dei lavoratori. La legge (Art. 11, 12) stabilisce paletti precisi.

Diritti e Doveri: L’intelligenza artificiale deve essere impiegata per migliorare le condizioni di lavoro e accrescere la qualità delle prestazioni. La legge non crea un obbligo informativo da zero, ma estende e aggiorna le tutele già esistenti. L’art. 11, comma 2, richiama esplicitamente l’articolo 1-bis del decreto legislativo n. 152/1997 (noto come “Decreto Trasparenza”), imponendo al datore di lavoro di informare il lavoratore sull’utilizzo di sistemi automatizzati che lo riguardano. Viene inoltre sancito il divieto esplicito di utilizzare l’IA per porre in essere discriminazioni (Art. 11, comma 3).

L’Osservatorio Nazionale: Per monitorare l’evoluzione del fenomeno, viene istituito presso il Ministero del Lavoro e delle Politiche Sociali l’Osservatorio sull’adozione di sistemi di IA nel mondo del lavoro. Tra i suoi compiti vi sono il monitoraggio dell’impatto sul mercato del lavoro e la promozione di percorsi di formazione per lavoratori e datori di lavoro (Art. 12).

2.3 Professioni Intellettuali e Pubblica Amministrazione

Anche i professionisti e la Pubblica Amministrazione sono chiamati ad adeguarsi a nuove regole.

  • Professionisti: Per le professioni intellettuali (avvocati, commercialisti, ingegneri, ecc.), l’uso dell’IA è ammesso solo per attività strumentali e di supporto. Resta centrale il lavoro intellettuale del professionista. È inoltre previsto l’obbligo di informare il cliente, con un linguaggio chiaro, semplice ed esaustivo, sull’eventuale utilizzo di tali strumenti (Art. 13).
  • Pubblica Amministrazione: Le PA potranno utilizzare l’IA per aumentare la propria efficienza e ridurre i tempi dei procedimenti. Tuttavia, la legge stabilisce un principio fondamentale: la responsabilità finale di qualsiasi provvedimento amministrativo resta sempre in capo alla persona fisica (il funzionario o il dirigente), anche quando il processo decisionale è stato supportato da un algoritmo (Art. 14, comma 2). Questo principio crea un argine giuridico, assicurando che l’IA, pur potendo ottimizzare i processi burocratici, non possa essere usata come scudo contro la responsabilità. I funzionari pubblici rimangono pienamente responsabili, rafforzando la necessità di una rigorosa supervisione di qualsiasi sistema automatizzato da loro impiegato.

3. Tutela del Diritto d’Autore e Nuovi Reati

La legge introduce importanti novità per adeguare il diritto d’autore e il diritto penale alle sfide poste dall’IA generativa e da altri usi potenzialmente illeciti.

  • Copyright nell’era dell’IA: La legge interviene in modo deciso sulla storica disciplina del diritto d’autore (Legge n. 633/1941) per chiarire un punto cruciale: sono protette le opere dell’ingegno “umano” anche se create con l’ausilio di strumenti di IA, a condizione che l’output sia il risultato del lavoro intellettuale dell’autore (Art. 25). Questo significa che il semplice prodotto di un’IA generativa, senza un significativo contributo creativo umano, non gode di tutela. Vengono inoltre introdotte nuove disposizioni per regolare le attività di text and data mining necessarie per addestrare i modelli di IA (Art. 25, che inserisce l’Art. 70-septies).
  • Illeciti e Sanzioni: Il codice penale viene aggiornato (Art. 26) per fronteggiare i nuovi rischi.
    • Aggravante Comune: L’impiego di sistemi di IA come mezzo “insidioso” per commettere un reato (ovvero, uno strumento utilizzato in modo ingannevole o nascosto per superare le difese della vittima) diventa una circostanza aggravante comune, che comporta un aumento della pena (modifica all’Art. 61 c.p.).
    • Diffusione Illecita di Contenuti (Deepfake): Viene introdotto il nuovo reato di “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. La norma punisce con la reclusione da uno a cinque anni chi diffonde immagini, video o voci falsificati (deepfake) senza il consenso della persona raffigurata (Art. 612-quater c.p.). È cruciale notare che, affinché il reato sia configurabile, l’accusa deve provare non solo la diffusione non autorizzata del contenuto falso, ma anche lo specifico intento di cagionare un danno ingiusto, distinguendo così questo illecito da usi leciti come la parodia o la satira.

4. Governance e Sostegno all’Innovazione

Per garantire l’applicazione della legge e promuovere uno sviluppo virtuoso del settore, viene definita una struttura di governance e vengono stanziate importanti risorse.

  • Le Autorità Nazionali: L’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN) sono designate come Autorità nazionali per l’intelligenza artificiale. All’AgID sono affidati compiti di promozione dell’innovazione e dello sviluppo, mentre all’ACN competono le attività di vigilanza, ispezione e sanzione, con un focus particolare sui profili di cybersicurezza (Art. 20). Questo modello a doppia autorità separa strategicamente il mandato promozionale e di sviluppo (AgID) dai poteri di supervisione e sanzione (ACN). Tale divisione è concepita per prevenire conflitti di interesse, garantendo che l’ente che promuove l’innovazione non sia lo stesso che ne sorveglia i rischi, mirando così a una crescita robusta e a una vigilanza rigorosa.
  • Investimenti Strategici: Viene autorizzato un investimento fino a un miliardo di euro per supportare, tramite operazioni di venture capital, lo sviluppo di imprese innovative nei settori dell’intelligenza artificiale, della cybersicurezza e delle tecnologie quantistiche (Art. 23). Questo cospicuo fondo da un miliardo di euro non è un mero sussidio, ma una chiara dichiarazione di politica industriale. Mirando al capitale di rischio per IA, cybersicurezza e tecnologie quantistiche, lo Stato punta a coltivare campioni nazionali e a ridurre la dipendenza tecnologica, segnalando una spinta decisiva verso l’innovazione sovrana.

Conclusione: Verso un Futuro di IA Responsabile

Con la Legge n. 132/2025, l’Italia si dota di un quadro normativo organico e all’avanguardia, che cerca di trovare un difficile ma necessario equilibrio tra la spinta verso lo sviluppo tecnologico e la protezione dei diritti individuali e collettivi. La normativa pone le basi per un’innovazione che sia non solo tecnicamente avanzata, ma anche eticamente e socialmente sostenibile. La centralità dell’essere umano, la trasparenza dei processi e la sicurezza dei sistemi sono i pilastri su cui il legislatore ha scelto di costruire il futuro dell’intelligenza artificiale nel nostro Paese.

Articolo generato con NOTEBOOKLM