Come orientarsi nel panorama della legislazione sull’AI

L’Intelligenza Artificiale (AI) sta rapidamente trasformando i settori economici e la società, presentando progressi, ma anche sfide, senza precedenti. Con la sempre maggiore integrazione dei sistemi AI nel nostro modo di fare business e di vivere la vita quotidiana, diventa sempre più necessaria una legislazione solida che ne regoli lo sviluppo e l’utilizzo.

La maggior parte dei quadri normativi mira a bilanciare l’esigenza di innovazione con la protezione dei diritti fondamentali e della sicurezza pubblica. Il presente articolo analizza lo stato attuale della legislazione sull’AI, le sue implicazioni e il percorso da seguire. 

L’ascesa della legislazione sull’AI 

L’Unione europea (UE) ha introdotto di recente l’AI Act. Un quadro di riferimento esaustivo, volto a far sì che i sistemi AI siano sicuri e trasparenti e che rispettino i diritti fondamentali. I Paesi più all'avanguardia in queste tecnologie, come Stati Uniti e Cina ad esempio, si sono già dotati di schemi legislativi per affrontare le sfide senza precedenti poste dall’AI.  Al di là della rapidità con cui queste tecnologie si stanno diffondendo, per promuovere l’innovazione e creare fiducia è necessario regolamentare il panorama dell’AI. 

Passi avanti verso una maggiore fiducia 

L’attuazione della legislazione sull’AI presenta diverse sfide, in quanto il suo rapido ritmo di sviluppo può superare la capacità delle normative di tenere il passo. Il bilanciamento tra innovazione e regolamentazione richiede inoltre un’attenta riflessione, per evitare di soffocare il progresso tecnologico. La legislazione sull’AI offre però anche notevoli opportunità: se stabilisce linee guida e standard chiari, la legislazione può promuovere l’innovazione, aumentare la fiducia nell’opinione pubblica e far sì che i sistemi AI siano sviluppati e utilizzati in modo responsabile. Dando priorità alla sicurezza, la trasparenza e le considerazioni etiche, possiamo inoltre sfruttare appieno il potenziale dell’AI, salvaguardando al contempo gli interessi degli individui e della società. 

La funzione complementare agli standard internazionali  

Gli sforzi legislativi sono integrati da standard internazionali, come l’ISO/IEC 42001. Questo standard certificabile fornisce i requisiti per l’implementazione di un sistema di gestione dell’AI che va oltre i confini geografici. Sebbene non sia di per sé una normativa, si prevede che l’ISO/IEC 42001 possa svolgere un ruolo significativo nella promozione di un’AI affidabile, stabilendo le migliori pratiche per la sua governance. Progettato per promuovere lo sviluppo, l’implementazione e l’utilizzo dell’AI in modo sicuro, affidabile ed etico, lo standard viene citato nelle legislazioni come un valido strumento per mettere in atto processi di governance adeguati. 

Componenti chiave della legislazione sull’AI 

La legislazione in materia di AI comprende in genere diverse componenti chiave: 

  1. Sicurezza e affidabilità: è fondamentale far sì che i sistemi AI funzionino in modo sicuro e affidabile. La legislazione include spesso requisiti per la gestione dei rischi, i test e la validazione per prevenire danni alle persone e alla società. 
  2. Trasparenza e accountability: per creare fiducia è fondamentale la trasparenza nei processi decisionali relativi all’AI. La legislazione impone agli sviluppatori di fornire spiegazioni chiare sul funzionamento dei sistemi e di stabilire meccanismi per l’individuazione delle responsabilità (accountability). 
  3. Considerazioni etiche: I principi etici, come l’equità, la non discriminazione e il rispetto della privacy, sono parte integrante della legislazione sull’AI. Questi principi guidano lo sviluppo e l’implementazione dei sistemi AI per far sì che siano in linea con i valori della società. 
  4. Compliance e applicazione: Per ottenere la compliance alla legislazione sull’AI sono essenziali meccanismi di applicazione efficaci. Le autorità di regolamentazione hanno il compito di monitorare i sistemi AI, condurre audit e imporre sanzioni in caso di non conformità. 

Europa: L’AI Act dell’Unione europea

L’Unione europea (UE) ha compiuto un passo significativo nella regolamentazione dell’Intelligenza Artificiale (AI) con l’AI Act. Questa direttiva mira a far sì che i sistemi siano sicuri e trasparenti e che rispettino i diritti fondamentali, promuovendo al contempo l’innovazione. Pubblicata il 12 luglio 2024, è entrata in vigore il primo agosto di quest’anno. Le sue disposizioni saranno attuate in maniera graduale: in particolare, gli obblighi sulle pratiche vietate saranno applicati a partire dal 2 febbraio 2025 e i requisiti per i sistemi AI ad alto rischio dal 2 agosto 2026. 

L’AI Act classifica i sistemi AI in base al livello di rischio: 

  • A rischio inaccettabile, es. social scoring: vietati 
  • A rischio elevato, es. sistemi per il recruitment o i dispositivi medici: consentiti, a condizione che siano soddisfatti i requisiti e le valutazioni di compliance 
  • A rischio per la “trasparenza”, es. chatbot o deep fake: consentiti, a fronte di obblighi di informazione e trasparenza. 
  • A rischio minimo o nullo: consentiti senza restrizioni. 

Sono vietati i sistemi a rischio inaccettabile, come quelli che manipolano il comportamento umano o sfruttano vulnerabilità. Quelli ad alto rischio, tra i quali le applicazioni per le infrastrutture critiche, l’istruzione e l’occupazione, devono essere sottoposti a rigorose valutazioni di compliance prima di essere distribuiti. 

L’AI Act stabilisce inoltre requisiti di trasparenza e responsabilità. Gli sviluppatori devono fornire informazioni chiare sul funzionamento dei sistemi e assicurare che possano essere controllati. Questi requisiti includono la tenuta di una documentazione dettagliata e di registri per facilitare la supervisione e la compliance e si applicano anche alle aziende che operano o vendono prodotti AI nell’UE. Le aziende esportatrici devono fare in modo che i loro sistemi AI soddisfino gli standard specificati e siano sottoposti alle necessarie valutazioni. 

La legislazione sull’AI negli Stati Uniti 

Pur adottando un approccio lievemente differente da quello dell’UE, gli Stati Uniti hanno riconosciuto fin da subito la necessità di una legislazione completa che regolasse lo sviluppo e l’utilizzo dell’AI. Questo ha portato a diversi atti legislativi a livello federale e statale, con oltre 40 proposte di legge statali introdotte nel 2023. Negli Stati Uniti il panorama legislativo è quindi piuttosto complesso, ma riflette in larga misura la crescente necessità di bilanciare l’innovazione con le salvaguardie per proteggere gli individui e la società dai rischi dell’AI. 

Si segnalano alcuni importanti atti legislativi e normativi che stanno plasmando il panorama dell’AI negli Stati Uniti. Il Blueprint for an AI Bill of Rights, pubblicato nell’ottobre 2022, delinea i principi per proteggere gli individui dai potenziali danni dell’AI. Si concentra su diritti quali la privacy, la protezione dalla “discriminazione algoritmica” (cioè discriminazioni dovute ai bias degli algoritmi, NdT) e la garanzia di trasparenza. Un ordine esecutivo sull’AI di vasta portata, firmato dal presidente Joe Biden nel 2023, sottolinea la necessità di un’AI sicura, protetta e affidabile e incarica le agenzie federali di adottare misure volte a garantire che i sistemi AI siano sviluppati e utilizzati in modo responsabile. Ulteriori leggi, come il National AI Initiative Act del 2020 e il Future of AI Innovation Act, mirano a promuovere l’innovazione sempre in modo sicuro, affidabile, etico e trasparente. Nel maggio 2024 è stato firmato il rivoluzionario Colorado AI Act, il primo del suo genere negli Stati Uniti, composto da una legge di governance dell’AI intersettoriale che copre anche il settore pubblico. Sono in fase di sviluppo diverse proposte di legge di iniziativa parlamentare, come il recente SB 1047 California AI Safety Bill, che mira a regolamentare ulteriormente il modello di AI più potente. 

La legislazione cinese sull’AI 

Finora la Cina non ha emanato una legge esaustiva sull’AI, ma ha pubblicato regolamenti sulle sue applicazioni. A differenza dell’Unione europea, dove l’AI Act funge da quadro normativo generale per tutti i sistemi, la Cina sta infatti adottando un approccio verticale volto a regolamentare alcuni servizi AI. 

Con l’ambizioso obiettivo di diventare il leader globale nello sviluppo e nelle applicazioni AI, nel 2017 il governo di Pechino ha pubblicato il “Piano di sviluppo dell’AI di nuova generazione”, il primo piano sistemico e strategico nella sfera dell’AI. Il piano ha dato origine a un vero e proprio boom nell’attività industriale e nel sostegno politico allo sviluppo dell’AI. 

Il panorama cinese della governance AI si articola in cinque categorie principali: 

  1. Politiche e strategie di governance. Pechino ha pubblicato una serie di principi di governance, piani, linee guida o opinioni sulle tecnologie dell’AI a livello nazionale, che fanno da base per la legislazione sull’AI. Ad esempio, il Consiglio di Stato ha pubblicato le “Opinioni sul rafforzamento della governance etica nella scienza e nelle tecnologie”, che esprime il pensiero di Pechino sui principi etici delle tecnologie di AI. 
  2. Leggi. Alcune delle leggi esistenti affrontano determinati aspetti dello sviluppo, fornitura, distribuzione e utilizzo dei sistemi AI, che hanno un impatto significativo sulla legislazione in materia. Tra queste, si evidenziano tre leggi: “Legge sulla protezione dei dati personali”, “Legge sulla sicurezza dei dati” e “Legge sulla sicurezza informatica”. 
  3. Regolamenti amministrativi. Alcuni regolamenti amministrativi stabiliscono requisiti concreti per gli algoritmi di AI quando vengono utilizzati nei servizi di informazione su Internet, come i “contenuti di sintesi profonda”, i “sistemi di raccomandazione” e i “sistemi di AI generativa”.  
  4. Regolamenti comunali. Con l’obiettivo di promuovere lo sviluppo del settore, anche alcune città (Shanghai e Shenzhen) hanno emanato regolamenti sull’AI indipendente dai contenuti (content-agnostic). Entrambi i regolamenti prevedono che i rischi introdotti dall’AI debbano essere controllati in modo efficace, con un esame più approfondito dei prodotti e servizi AI ad alto rischio rispetto a quelli che presentano rischi minori. 
  5. Standard nazionali. Per sostenere la regolamentazione dei sistemi AI, il China Electronics Standardization Institute sta guidando lo sviluppo di una serie di standard raccomandati che coprono diversi aspetti delle tecnologie AI. 

Impatto sulle imprese 

Il panorama legislativo mondiale è piuttosto ampio e aggiunge un livello di complessità che le aziende devono gestire per operare sia in una specifica area geografica, sia al proprio interno. La maggior parte di queste norme è accomunata dal fatto che gli enti governativi vogliono affrontare tanto le opportunità come le sfide poste dalle tecnologie AI. 

L’intento è di promuovere l’innovazione, lo sviluppo e l’utilizzo responsabile dell’AI, assicurando che apporti benefici alla società e salvaguardandola al contempo dai potenziali rischi. Le autorità di regolamentazione cercheranno di tenere il passo di tecnologie AI in sempre più rapida evoluzione, e anche le aziende dovranno adeguarsi.   

Per gestire e mantenere una solida governance, le aziende possono trarre vantaggio dall’implementazione di un sistema di gestione dell’intelligenza artificiale (Artificial Intelligence Management System, AIMS) conforme alla norma ISO/IEC 42001, abbinato a sistemi di gestione della Information Security (ISO/IEC 27001) o della privacy (ISO/IEC 27701). Questa combinazione fornisce un approccio strutturato alla gestione del rischio, compresa la compliance normativa, e stabilisce pratiche per il miglioramento continuo. Consente Inoltre la certificazione da parte di un ente terzo indipendente, come DNV, che può contribuire a rendere i sistemi AI sicuri, affidabili ed etici, a sostenere la compliance normativa e a colmare le lacune di fiducia.   

Self-Assessment e Certificazione ISO/IEC 42001