La nuova legge sull’Intelligenza artificiale: 5 novità che devi sapere

Evoluzione digitale

  • Mentre l’AI Act europeo tracciava i confini del campo da gioco, l’Italia ha deciso di scrivere le proprie regole di ingaggio. La nuova legge nazionale sull’intelligenza artificiale non è una semplice nota a piè di pagina di Bruxelles. Si tratta invece di un testo che nasconde trappole e opportunità decisive per chi fa impresa.Abbiamo identificato cinque punti chiave che ogni manager, imprenditore e professionista dovrebbe conoscere per navigare con consapevolezza il nuovo scenario normativo.Questo testo mira a svelare gli aspetti della legge non ovvi a una prima lettura, ma che influenzeranno in modo concreto le strategie aziendali, l’allocazione degli investimenti e la responsabilità legale. Scopriamo insieme quali sono.

1. Il Miliardo per l’AI: un investimento che non è ciò che sembra

La notizia ha fatto scalpore: la legge sull’AI mobilita “fino a un miliardo di euro” da destinare al venture capital per sostenere le imprese del settore. Una cifra imponente che suggerisce un forte impegno governativo per creare “campioni” nazionali e accelerare l’innovazione.

Tuttavia, il dettaglio cruciale è un altro. La legge non introduce nuovi fondi. Essa si limita, infatti, ad autorizzare l’utilizzo di una somma già disponibile per CDP Venture Capital, val a dire il Fondo Nazionale Innovazione italiano

La sorpresa non finisce qui: questo miliardo non è destinato solo all’AI. Al contrario, il fondo coprirà investimenti anche in cybersicurezza, tecnologie quantistiche e telecomunicazioni. Di conseguenza, le risorse per l’intelligenza artificiale sono solo una frazione di un paniere tecnologico più ampio. Proprio questo punto ha scatenato immediate critiche dalle opposizioni.

Per le imprese, questo implica che la corsa ai fondi diventerà più competitiva. Per questo sarà necessario posizionare i propri progetti di Intelligenza Artificiale (AI) in un contesto strategico più vasto, dimostrando sinergie con altri settori hi-tech prioritari per il Paese.

2. Governance governativa: il controllo sull’AI resta in mano pubblica

Una delle decisioni più significative riguarda chi vigilerà sull’AI in Italia. Il compito è stato affidato a due agenzie governative: l’Agenzia per la Cybersicurezza Nazionale (ACN) e l’Agenzia per l’Italia Digitale (AgID). I ruoli dell’ACN e dell’AgID sono distinti: l’ACN vigila, con poteri ispettivi, sull’adeguatezza e la sicurezza dei sistemi. Al contempo, l’AgID gestisce le notifiche e promuove casi d’uso sicuri per cittadini e imprese.

L’elemento sorprendente è la scelta di non istituire un’autorità indipendente, come avviene in altri settori regolamentati. La vigilanza è stata invece affidata a enti direttamente collegati all’esecutivo. Questa decisione ha sollevato preoccupazioni riguardo alla potenziale mancanza di indipendenza e al rischio che il controllo su una tecnologia così pervasiva possa subire un’influenza politica.

Per le aziende, questo implica la necessità di interfacciarsi con un apparato regolatorio pubblico. Di conseguenza, è fondamentale comprenderne le logiche e le priorità, che possono differire da quelle di un’autorità tecnica puramente indipendente.

3. Responsabilità civile e Intelligenza artificiale: la prova si inverte e le assicurazioni tremano

Nascosto tra gli articoli più tecnici, c’è un cambiamento che avrà un impatto enorme sulla gestione del rischio. La legge delega al Governo la ridefinizione delle regole sulla responsabilità civile per i danni causati dall’AI. Il focus principale è sulla ripartizione dell’onere della prova.

In pratica, la legge spiana la strada a un potenziale ribaltamento dell’onere della prova. Non sarà più solo il danneggiato a dover dimostrare la colpa del sistema, ma potrebbe spettare all’azienda produttrice o utilizzatrice provare che la sua AI ha agito correttamente. Questo “ribaltamento” costringerà l’intera catena del valore — dagli sviluppatori ai fornitori di servizi cloud, fino agli utenti aziendali — a rivedere contratti, garanzie e coperture assicurative.

Le imprese devono agire immediatamente, avviando una revisione legale e assicurativaDiventa cruciale quindi rafforzare la vendor due diligence e implementare sistemi MLOps.

Ma cosa sono gli MLOps? Sono l’insieme di pratiche che mirano a distribuire e a mantenere in produzione modelli di Machine Learning. Questo approccio garantisce in modo affidabile ed efficiente la tracciabilità e la spiegabilità degli algoritmi.

4. Copyright e Training: una sorprendente libertà per i modelli AI

La questione di come i modelli AI possano utilizzare dati protetti da copyright per il loro addestramento (il Text and Data Mining, o TDM) è uno dei temi più caldi a livello globale. La legge italiana interviene sulla materia, inserendo limiti e responsabilità.

Tuttavia, emerge una contraddizione sorprendente. Il testo è stato criticato dal mondo del diritto d’autore perché concederebbe ai modelli AI delle facoltà di training giudicate “più ampie rispetto alle norme Ue”. Da un lato questo potrebbe creare un ambiente normativo favorevole per le aziende italiane che sviluppano modelli basati su large-scale scraping. Dall’altro genera una notevole incertezza legale e apre la porta a possibili conflitti con la normativa europea.

Le aziende sono a un bivio strategico. Possono sfruttare il vantaggio normativo ‘Made in Italy’ per accelerare lo sviluppo, ma questo comporta un’incertezza legale a lungo termine. In alternativa, è possibile adottare da subito un approccio più conservativo, allineato alle future interpretazioni europee.

5. Lavoro e sanità: l’Ultima parola resta (sempre) all’uomo

Un principio cardine attraversa tutta la legge: l’approccio “antropocentrico”. La tecnologia è vista come uno strumento di supporto, ma la decisione finale e la responsabilità ultima non possono essere delegate a una macchina, specialmente in settori critici.

Gli esempi concreti nel testo sono chiari e definiscono un perimetro invalicabile per l’automazione:

  • Sanità: L’AI può supportare diagnosi e cure, ma la decisione finale resta “impregiudicata” e spetta sempre e solo al personale medico.
  • Giustizia: L’AI non può essere utilizzata per interpretare la legge o decidere le pene. Queste attività sono “sempre riservate al magistrato”.
  • Lavoro e Professioni: I datori di lavoro devono informare i lavoratori sull’uso di sistemi AI (ad esempio nella valutazione o selezione) e garantire trasparenza. Lo stesso obbligo di comunicazione vale per i professionisti nei confronti dei loro clienti.

Questo principio tutela i diritti, ma al tempo stesso chiarisce alle aziende che l’implementazione dell’AI deve essere progettata per affiancare, e non per sostituire, il giudizio umano. La responsabilità, in ultima analisi, non è delegabile, e i sistemi devono essere costruiti con l’uomo al centro del processo.

Conclusione: un invito alla riflessione

La legge italiana sull’intelligenza artificiale è un testo complesso, pieno di sfumature che vanno ben oltre la semplice adozione dell’AI Act europeo. Come abbiamo visto, definisce un quadro specifico per l’Italia, con importanti conseguenze su investimenti, governance e gestione del rischio.

Resta però una domanda aperta, che ogni azienda dovrà porsi. L’Italia, con questa legge quadro, diventerà un protagonista dell’AI o un semplice “spettatore pagante”?

Questo è il dilemma sollevato dai critici. La risposta dipenderà dalla capacità delle imprese di interpretare e sfruttare le opportunità nascoste in questo nuovo scenario.

I servizi Credemtel coinvolti nel processo sono: