Benvenuti al nostro podcast sulla governance dell'AI, presentato da Ilaria Savini, ICT Industry Manager Italy & Adriatics in DNV.
Secondo la recente indagine ViewPoint di DNV, il 70% delle aziende ha appena iniziato il proprio percorso nell'intelligenza artificiale. Poiché l'AI si evolve rapidamente, una governance tempestiva è fondamentale.
In questo podcast, Ilaria discute l'importanza di comprendere i rischi e i vantaggi dell'AI, di colmare il gap di fiducia e di implementarne un'efficace governance. Sottolinea inoltre il ruolo della certificazione ISO e fornisce indicazioni pratiche, tra cui una guida in 8 fasi e risorse per la formazione.
Siamo lieti di offrire una promozione limitata per l'iscrizione al nostro corso ISO/IEC 42001:2023 Requirements, un e-learning in inglese progettato per consentire ai partecipanti di acquisire le conoscenze di base sui requisiti dello standard e le conoscenze fondamentali necessarie per implementarlo. Utilizza il codice promozionale “ISO42KAI-24” al momento del checkout per accedere gratuitamente all'e-learning. Affrettati: ci sono solo 25 posti disponibili.
Leggi la trascrizione degli episodi del nostro podcast
Salve e benvenuti a Navigating AI Assurance di DNV, ente di certificazione indipendente e fornitore di formazione leader a livello mondiale. Sono Ilaria Savini, ICT Industry Manager per l'area Italy & Adriatics. Nelle prossime tre puntate vi guiderò attraverso alcune delle considerazioni chiave per le aziende che iniziano il viaggio nel mondo dell'intelligenza artificiale e vi mostrerò come la governance dell'intelligenza artificiale può mettervi sulla strada di un uso sicuro, affidabile ed etico di questa tecnologia. Come è stato detto più volte, con l'intelligenza artificiale non ci si annoia mai. È sempre un argomento interessante ed è un momento di conversazione fra più persone e in un modo o nell'altro tutti si trovano da qualche parte nel viaggio verso l'intelligenza artificiale. Chi ai blocchi di partenza, chi lungo la strada, chi quasi ha raggiunto il traguardo. Partiamo con il comprendere rischi e vantaggi dell'intelligenza artificiale. Secondo un recente sondaggio di DNV svolto a livello globale, analizzando l'esperienza di aziende di vari settori e intervistando persone con diversi ruoli che comunque sia hanno a che vedere con il mondo dell'intelligenza artificiale, è emerso che circa il 58% delle aziende non hanno ancora implementato all'interno dei loro processi le tecnologie dell'intelligenza artificiale, mentre il 70% sta iniziando il suo percorso. È quindi importante fare chiarezza sugli aspetti da tenere sott'occhio, mentre l'intelligenza continua ancora e ancora a cambiare e ad evolversi. Ogni nuova tecnologia comporta dei rischi e ci sono sempre due facce della medaglia, vantaggi e rischi. È estremamente importante per noi, sia come individui che come organizzazioni aziendali. Capire questi due aspetti, capire i limiti, cosa può andare storto, come possiamo trarre vantaggio invece dall'intelligenza artificiale e quali tipi di azioni devono essere messe in atto per permetterci di trarre vantaggio dall'uso dell'intelligenza artificiale in modo sicuro. Se iniziamo ad analizzare alcuni dei vantaggi dell'intelligenza artificiale, ovviamente quelli che possono venire in mente per la prima volta sono efficienza e produttività. Sappiamo infatti che l'intelligenza artificiale può automatizzare compiti ripetitivi e liberare così del tempo da dedicare su lavori più impegnativi e sicuramente più creativi, il che può ovviamente portare anche ad un aumento della produttività. Produttività che può essere aumentata in diversi settori, perché l'intelligenza artificiale si può applicare al settore dei trasporti, al settore della sanità, della finanza, assicurativo, bancario, ma possiamo arrivare addirittura ad applicarla al settore agroalimentare e al settore dell'automotive. Infiniti sono gli usi dell'intelligenza artificiale. Ad esempio, gli algoritmi dell'intelligenza artificiale possono essere utilizzati per analizzare i dati medici per migliorare la diagnostica e diversi piani di trattamento. E cosa dire poi dell'analisi dei dati? L'intelligenza artificiale è in grado di elaborare migliaia e migliaia di dati enormi quantità in modo molto rapido ed efficiente. A questo punto vediamo alcuni rischi dell'intelligenza artificiale. Sicuramente possiamo partire dalla mancanza di trasparenza. I sistemi di intelligenza artificiale tendono a non essere trasparenti, in particolare quando si tratta di modelli di apprendimento profondo che possono essere complessi da interpretare. A volte questo può ovviamente influire sul processo decisionale e sulla comprensione della logica applicativa dell'intelligenza artificiale di queste tecnologie. E quando le persone non si sentono al sicuro perché non sono in grado di capire come il sistema dell'intelligenza artificiale funziona, sicuramente questo può portare a sentire della sfiducia da parte degli utilizzatori e dei consumatori verso l'uso dell'intelligenza artificiale e quindi una certa riluttanza verso queste tecnologie. Un'altra tipologia di rischio sono i problemi legati alla privacy. L'uso dell'intelligenza artificiale nella raccolta dei dati e nell'analisi dei dati può portare a numerose violazioni della privacy, se ovviamente il tutto non è adeguatamente regolamentato. Un'altra tipologia di rischio sono le minacce alla sicurezza. L'intelligenza artificiale può essere utilizzata in vari modi, ma se dovessimo classificarla può essere utilizzata a fin di bene e anche con scopi criminali. Può essere usata in modo malevolo, ad esempio nella creazione di fakes, e può essere anche utilizzata per automatizzare attacchi informatici. Infine, ma non da ultimo, c'è anche la questione dell'uso etico dell'intelligenza artificiale. Quindi, infondendo valori morali ed etici nei sistemi di intelligenza artificiale, soprattutto in quelli che hanno un contesto decisionale con conseguenze molto importanti nei confronti delle persone, cercheremo di rendere più umani, se così si può dire, questi sistemi. Il tutto può rappresentare ovviamente una sfida, anche perché ci possono essere pregiudizi e anche situazioni non così positive. Si tratta pertanto di bilanciare rischi ed opportunità. Nell'ambito del sondaggio di DNV abbiamo visto, ad esempio, che sotto l'aspetto dei rischi, la cyber security è la massima priorità per le aziende che stanno implementando l'intelligenza artificiale, ma un'altra tipologia di rischi che le aziende stanno in qualche modo esaminando sono l’inaccuratezza dei dati, la violazione della proprietà intellettuale e la parte bias su tutto quello che riguarda la distorsione dei dati, la compromissione della privacy individuale e la mancata compliance normativa sono tutti aspetti e tutti rischi che dobbiamo assolutamente tenere sotto controllo. Per cui diciamo che l'intelligenza artificiale è arrivata, ma è arrivata già da lungo tempo. Sappiamo che possiamo sfruttarla per il meglio, ma che cosa dobbiamo fare? Come abbiamo detto, le organizzazioni vogliono implementare rapidamente l'intelligenza artificiale, o perlomeno la maggior parte di esse sta tentando di implementare al proprio interno l'intelligenza artificiale, sia per semplificare dei processi che per utilizzarla verso alcuni servizi o alcuni prodotti. Le organizzazioni stanno cercando quindi di comprende quale sia la strategia da utilizzare con l’intelligenza artificiale e a questo punto uno dei grandi temi da affrontare è la gestione dell'intelligenza artificiale. Quindi, per massimizzare i benefici dell'intelligenza artificiale e allo stesso tempo mitigarne anche i rischi, bisognerà implementare alcuni solidi quadri di governance all'interno dei propri sistemi, all'interno dei propri processi, per garantire trasparenza ed equità nei sistemi di gestione dell'intelligenza artificiale, naturalmente promuovendo l'apprendimento continuo. Ed è proprio nell'ambito di questo tema della governance che si inserisce lo standard ISO 42001 per il sistema di gestione dell'intelligenza artificiale. Tale standard è stato pubblicato alla fine del 2023 e si inserisce come qualcosa che può essere utilizzato a supporto delle aziende. È uno strumento per progettare e incorporare la governance dell'intelligenza artificiale all'interno delle organizzazioni, poiché fornisce un modus operandi specifico e adattabile per quelle organizzazioni che stanno pensando di implementare un sistema di controllo e di governance all'interno dei loro processi, per gestire l'intelligenza artificiale, sia in ambito di sviluppo dell'intelligenza artificiale che in ambito di applicazione o uso della stessa. Quindi, in relazione alle politiche della responsabilità, considerato anche il concetto di governance, lo standard risulta veramente essere un valido alleato. Lo definirei quasi come un primo passo o come delle linee guida, anche se è uno standard di certificazione, nel senso che le aziende possono assolutamente certificarsi in base a questo standard. Pertanto, come ho detto, la governance di tutto ciò e i diversi processi, le politiche, l'utilizzo delle risorse sono tutti temi racchiusi e affrontati all'interno dello standard ISO 42001. Se volete saperne di più su cosa sia un sistema di gestione dell'intelligenza artificiale e su come potrete coglierne i vantaggi, visitate il nostro sito www.dnv.it/aims-benefits/ e troverete in questa pagina anche un link al nostro sondaggio ViewPoint, quello di cui stavo parlando prima, che analizza il modo in cui le aziende si avvicinano all'intelligenza artificiale e a che punto sono del loro percorso. Grazie per aver ascoltato l'episodio di oggi di Navigating AI Assurance di DNV sui rischi e sui vantaggi dell'intelligenza artificiale. La prossima volta ci incontreremo per parlare di come colmare il gap di fiducia nei confronti dell'intelligenza artificiale. |
Salve! Bentornati a Navigating AI Assurance di DNV, ente di certificazione indipendente e fornitore di formazione leader a livello mondiale. Sono Ilaria Savini, responsabile del settore ICT Area Italy and Adriatics di DNV. Nella scorsa puntata abbiamo analizzato rischi e vantaggi dell'intelligenza artificiale per le aziende che iniziano il loro percorso. Oggi analizziamo come le aziende possono colmare il divario di fiducia nei confronti dell'intelligenza artificiale per superare eventuali preoccupazioni sulla sicurezza e sull'etica dell'uso della stessa. Sì, come tutti saprete, c'è un certo divario di fiducia nei confronti dell'intelligenza artificiale e in sostanza si ricollega a quanto abbiamo discusso nella puntata precedente in merito a diversi rischi e benefici dell'intelligenza artificiale. C'è molta paura, incertezza e ci sono dei dubbi. Come accaduto in passato, per la maggior parte delle nuove tecnologie, ogni nuova tecnologia, ogni novità epocale, come quella dell'uso dell'intelligenza artificiale, ci porta maggiormente a riflettere e a indagare, in modo da sviscerare tutti i dubbi che abbiamo per cercare di comprenderne l'uso e per cercare di comprendere se il suo uso farà bene all'umanità. Ciò è dovuto in gran parte ai rischi reali che esistono e al fatto che la velocità dell'innovazione e le possibilità offerte dall'intelligenza artificiale cambiano praticamente ogni giorno. La domanda da porsi è, a questo punto come possiamo sfruttarla? E, aggiungerei, senza farci male? Ci sono diversi motivi per cui le persone e le organizzazioni potrebbero non avere fiducia nel fatto che l'intelligenza artificiale sia sicura, affidabile ed etica. Alcuni di questi sono sicuramente la cattiva informazione e la disinformazione per cui l'intelligenza artificiale può essere usata per creare e diffondere informazioni false che spesso possono essere dannose e fuorvianti. Questo l'abbiamo già visto e sperimentato tantissimo con l'uso dei social. Ci sono naturalmente i problemi di sicurezza e protezione. Questi sistemi possono ovviamente, come tutti i sistemi, essere vulnerabili agli hackeraggi e ad altre minacce della sicurezza. E questo ovviamente può portare a gravi conseguenze. Quello che normalmente viene chiamato il problema della scatola nera. Molti sistemi di intelligenza artificiale tendono a funzionare in modi che non sono del tutto trasparenti e comprensibili per la maggior parte delle persone, e anche questo può creare problemi. A volte, quindi, può essere difficile fidarsi delle decisioni che l'intelligenza artificiale potrebbe prendere per noi e le preoccupazioni etiche sono assolutamente valide. Infatti, ci sono parecchi problemi etici legati all'intelligenza artificiale e tantissime persone stanno cercando di studiarli e di risolverli. Ad esempio, uno dei problemi etici è sicuramente legato ai pregiudizi del processo decisionale e alle violazioni della privacy. E il potenziale che esiste per l'intelligenza artificiale di danneggiare individui e società con l'uso errato della stessa. In definitiva, però, l'intelligenza artificiale porta con sé nuove sfide e nuovi rischi, che però possono essere affrontati con l'uso della stessa in modo responsabile, quindi con un'innovazione responsabile e con l'implementazione di misure di sicurezza, mi vengono in mente di guardare dell'autostrada. Quindi l'intelligenza artificiale non è qualcosa che dobbiamo temere, anzi dobbiamo cercare di comprenderla ed abbracciarla, perché dobbiamo valutare il bene che essa stessa può portare come strumento. La fiducia nella tecnologia spesso implica la sua comprensione sia del funzionamento che di come essa è fatta e implica anche la capacità di valutarne l'affidabilità e la sicurezza. Per poterci fidare è necessario pertanto che sia affidabile. Ma come poter dire che l'intelligenza artificiale è affidabile? Questa è una grande sfida. Per questo è necessario affrontare delle questioni chiave legate alla trasparenza, insieme a quelle dell'implementazione responsabile ed etica. E quando c'è bisogno di un po’ di fiducia pubblica su un argomento, sicuramente ci vengono in aiuto gli standard di certificazione, perché essi giocano un ruolo fondamentale in quanto promuovono la fiducia fornendo quadri affidabili per coerenza, qualità e sicurezza applicativa. Spesso, infatti, questi standard forniscono un vocabolario di base comune a tutti, una standardizzazione e una implementazione coerente a tutti i livelli e danno anche evidenza di best practices documentate che servono alle aziende per migliorare i loro processi. Gli standard, quindi, giocheranno un ruolo fondamentale nella nostra capacità di colmare il divario di fiducia con una tecnologia come quella dell'intelligenza artificiale. Poiché le nuove tecnologie necessitano comunque di standardizzazione per poter essere maggiormente comprese e sicuramente lo standard ISO 42001 per la certificazione dei sistemi dell'intelligenza artificiale, contribuirà in questo percorso a definire governance e un impiego responsabile dell'intelligenza artificiale, in modo tale da aumentare ed affrontare soprattutto le aspettative di sicurezza e fiducia delle società e offrire una base per la compliance normativa. Infine, lo standard aiuterà anche la capacità di accelerare e sfruttare il potenziale globale dell'intelligenza artificiale in modo sicuro ed etico, naturalmente garantendo sempre trasparenza, fiducia e sicurezza nei confronti delle parti interessate. Effettivamente c'è una forma di pressione, direi, per dimostrare sicurezza in questo ambito. Vi faccio un esempio di recente, nell'ambito del programma di garanzia della sicurezza e della privacy dei fornitori, Microsoft ha imposto la norma ISO 42001 ad alcuni di essi perché applicavano l'uso di sistemi di intelligenza artificiale sensibili. È da qui che iniziamo a vedere l'importanza della fiducia anche nei confronti di questi standard. Se desiderate saperne di più su come la certificazione ISO può aiutare la vostra azienda a colmare questo gap di fiducia nei confronti dell'intelligenza artificiale, visitate il sito www.dnv.it/gestione-ai/ dove troverete articoli approfonditi e la maggior parte delle nostre informazioni per la certificazione e la formazione. Sempre nell'ambito dell'ISO 42001. In questa pagina troverete inoltre anche un link al nostro sistema di autovalutazione online che è il Self Assessment tool suite che potrete utilizzare per fare una vera e propria valutazione del vostro sistema: se l'avete implementato bene, se state iniziando a implementarlo in maniera adeguata o comunque sia a fare un'analisi puntuale di come state affrontando l'inizio del viaggio. Grazie per aver ascoltato l'episodio odierno della rubrica di DNV Navigating AI Assurance sul tema "Colmare il gap di fiducia nell'intelligenza artificiale". Unitevi a me per l'ultima puntata in cui esamineremo come implementare efficacemente un sistema di governance dell'intelligenza artificiale. |
Salve e bentornati a Navigating Ai Assurance di DNV, ente di certificazione indipendente e fornitore di formazione leader a livello mondiale. Sono Ilaria Savini, responsabile DNV dell'industria ICT per l'area Italy and Adriatics. Nei primi episodi abbiamo analizzato i rischi e i vantaggi dell'intelligenza artificiale per le aziende che iniziano il loro percorso e abbiamo visto anche come colmare il divario di fiducia. Nell'ultimo episodio di oggi esamineremo i passi pratici per implementare una governance efficace che vi porti sulla buona strada per un utilizzo sicuro, affidabile ed etico dell'intelligenza artificiale. Quindi di cosa parliamo? ISO 42001. Si tratta di uno standard internazionale che specifica i requisiti per la creazione, l'implementazione, il mantenimento e il miglioramento continuo di un sistema di gestione dell'intelligenza artificiale che chiameremo AIMS. La norma ISO 42001 è destinata a tutte le organizzazioni di qualsiasi dimensione di qualsiasi settore, coinvolte nello sviluppo, nella fornitura o nell'utilizzo di prodotti o servizi che utilizzano sistemi di intelligenza artificiale, assicurandone uno sviluppo e un utilizzo responsabili. Si rivolge quindi a qualsiasi tipo di organizzazione in termini dimensionali, in termini territoriali, perché può essere applicata a industrie a livello globale, nazionale, locale e regionale e di diversa tipologia, profit e non profit, nonché alla pubblica amministrazione. La norma ISO 42001 è il primo standard di certificazione relativo ai sistemi di gestione dell'intelligenza artificiale ed è il primo al mondo e fornisce indicazioni preziose per questo settore tecnologico in rapida evoluzione. Affronta le sfide uniche che l'intelligenza artificiale porta con sé, come ad esempio considerazioni etiche, trasparenza e apprendimento continuo. Per le organizzazioni tale norma definisce un modo strutturato per gestire rischi ed opportunità associate all'intelligenza artificiale, bilanciandone innovazione e governance. I sistemi di gestione della qualità forniscono un livello base di responsabilità e di gestione dei processi per garantire la sicurezza nei confronti del cliente e sono la base di tutti gli standard e ad essi in qualche modo ci si rifà per l'integrazione degli standard. Anche la ISO 42001 funziona allo stesso modo è stata modellata sulla base di questi principi e strutture e pertanto può essere integrata perfettamente con altri sistemi di gestione, in primis con la ISO 9001 relativa appunto ai sistemi di gestione della qualità e anche con l'ISO 27001 che riguarda i sistemi di gestione della sicurezza delle informazioni. Ovviamente tutto questo al fine di implementare un sistema aziendale che vada a monitorare l'intelligenza artificiale a livelli di processo. Che cosa deve fare però un’azienda quando intraprende questo viaggio? Sicuramente deve assicurare l'impegno del top management perché, soprattutto nell'ambito dell'intelligenza artificiale e dei sistemi di certificazione dell'intelligenza artificiale, l'impegno del top management è basilare. Ottenerlo fin dalle prime fasi, coinvolgendo tutti i principali stakeholder nell'apprendimento dei potenziali rischi e danni, aiuterà sicuramente moltissimo chi deve implementare il sistema a indirizzare il tutto nella direzione corretta. Inoltre, cos'altro bisogna fare per avere in qualche modo un’implementazione coerente? Bisogna identificare le lacune o gap, quindi analizzare il contesto e la posizione dell'intelligenza artificiale sia interna che esterna, e selezionare il ruolo dell'intelligenza artificiale all'interno della nostra organizzazione. La cosa in primis che bisogna stabilire è siamo utenti? Siamo produttori? Siamo sviluppatori? Abbiamo più ruoli combinati?. Questo è fondamentale nell'ambito di un percorso di certificazione della ISO 42001. Infine, dopo averle identificate queste gap, queste lacune devono anche essere analizzate per valutare lo stato attuale dei processi e dei sistemi rispetto ai requisiti dello standard, in modo da identificare le aree di miglioramento. Questo tipo di valutazione è essenziale per intraprendere questo percorso che di per sé è articolato. Infine, ma non ultimo, seguire un'adeguata formazione, creare consapevolezza, aiuterà sicuramente coloro che devono implementare il sistema a comprendere meglio come implementarlo, ma aiuterà anche coloro che non stanno implementando il sistema per comprendere come questo si applichi nel loro day by day. La formazione e workshop forniranno al vostro team strumenti e competenze e una chiara comprensione degli obiettivi e dei ruoli che dovranno ricoprire all'interno dell'organizzazione per l'implementazione del sistema ISO 42001. La formazione, quindi, è essenziale in modo tale da garantire essa stessa una forma di conformità nell'utilizzo dell'AI. Più siamo formati, più comprendiamo esattamente anche cosa il sistema ci richiede, più siamo in grado di trasmettere agli altri questi valori. Quali sono gli obiettivi dello Standard però? La cosa interessante è che questo Standard ha per la prima volta al suo interno degli obiettivi che hanno a che vedere con il mondo etico è qualcosa di interessantissimo se pensiamo a come funzionano tutti gli standard ISO che sono verticalizzata su un tema, anche questo standard lo è però a un'apertura di ampio respiro, proprio perché va a focalizzarsi anche su un approccio umano-centrico. Quindi gli obiettivi della ISO 42001 sono innanzitutto quello di avere un'intelligenza artificiale responsabile. La norma ISO 42001 promuove lo sviluppo e l'utilizzo dei sistemi di intelligenza artificiale affidabili, sicuri, trasparenti e responsabili anche a seguito di cambiamenti. Un altro obiettivo sono le considerazioni etiche. Lo standard, infatti, enfatizza i principi e i valori etici nell'impiego dei sistemi di gestione dell'intelligenza artificiale come equità, non discriminazione, rispetto della privacy. Un altro obiettivo è la gestione del rischio, perché la norma aiuta le organizzazioni a identificare e mitigare i rischi legati all'implementazione dell'intelligenza artificiale, garantendone l'adozione con misure adeguate. Infine, ma non ultimo, approccio umano-centrico e conformità ai requisiti legali. L’approccio umano-centrico fa sì che lo standard incoraggi le organizzazioni a dare la priorità al benessere umano, alla sicurezza e all'esperienza dell'utente nella progettazione, nell'implementazione dell'intelligenza artificiale. L'obiettivo della conformità ai requisiti legali parla da sé. La norma ISO 42001 aiuta le organizzazioni a rispettare leggi, regolamenti, requisiti di protezione dei dati pertinenti. Tengo a sottolineare, aiuta, non significa che garantisce, ma è un valido supporto e un valido aiuto. Consultate la nostra pratica guida in otto passi. Questo vi aiuterà nel percorso. Andate sul nostro sito all'indirizzo www.dnv.it/gestione-ai/ e scoprirete come ottenere la certificazione ISO 42001. Come ringraziamento per l'ascolto, sono lieta di offrire un codice promozionale per le prime 25 persone che si iscriveranno al nostro corso eLearning, progettato per supportare le aziende in questo percorso. Visitate il nostro sito www.dnv.it/isoiec-42001-elearning/ e inserite il codice promozionale "ISO42KAI-24", per accedere al nostro e-learning gratuitamente. Grazie per averci seguito durante la serie Navigating AI Assurance di DNV in cui abbiamo guidato le aziende che iniziano il loro viaggio verso il mondo dell'intelligenza artificiale attraverso alcune considerazioni chiave e passi pratici per l'adozione e l'utilizzo di sistemi sicuri e affidabili come quello ISO 42001. L'intelligenza artificiale è uno spazio in continua e rapida evoluzione. Quindi continuate a seguire DNB per ulteriori consigli e supporto. Ci potrete trovare su LinkedIn e potrete visitare il nostro sito web per approfondimenti regolari. Grazie e arrivederci. |