L'Unione Europea ha giocato un ruolo di primo piano nel definire un quadro normativo per una delle innovazioni tecnologiche più affascinanti e al contempo più cariche di implicazioni morali ed etiche per il futuro dell'umanità.
Mentre spesso si tende a paragonare l'era dei big data e dell'intelligenza artificiale alla rivoluzione industriale della macchina a vapore, un parallelo forse più illuminante potrebbe essere rappresentato dalle grandi esplorazioni geografiche. Queste ultime hanno spinto l'umanità a ridisegnare le strutture commerciali, economiche e politiche globali, ma hanno drammaticamente fallito nel garantire opportunità eque e sviluppo condiviso per tutti i popoli coinvolti.
Anche nella narrazione storica, il termine "scoperta" dell'America rivela un'impostazione priva di empatia, poiché civiltà complesse e avanzate abitavano già quel continente ben prima del 1493. Questa prospettiva unilaterale non solo risulta storicamente inadeguata, ma rischia di tramandare un approccio pericoloso nell'educazione delle generazioni future.
Oggi, affinché i sistemi di intelligenza artificiale possano effettivamente supportare l'umanità nell'esplorare i misteri dell'universo, migliorare l'agricoltura per garantire sicurezza alimentare globale e sviluppare servizi sanitari preventivi, è cruciale raggiungere ciò che finora ci è sfuggito: uno sviluppo tecnologico realmente paritario e inclusivo.
La regolamentazione dell'IA deve quindi trascendere la mera gestione dei rischi. Deve configurarsi come uno strumento che garantisca l'utilizzo di questa tecnologia in modo responsabile e solidale, promuovendo il benessere collettivo e assicurando che i suoi benefici vengano distribuiti equamente tra tutte le comunità e i popoli del pianeta.
Per questa ragione, abbiamo necessità di un "hardware legale" con l'etica intrinsecamente integrata. Ecco perché risulta fondamentale che lo sviluppo e l'utilizzo dei sistemi di intelligenza artificiale - molto più complessi e pervasivi rispetto ad altre tecnologie - siano rigorosamente disciplinati dalla legge.
A tal proposito, nel dicembre 2023, l'Unione Europea ha raggiunto un accordo provvisorio che rappresenta la cornice regolatoria più esaustiva al mondo per lo sviluppo e l'impiego dell'intelligenza artificiale.
Ma ripercorriamo un momento la storia dell'odissea normativa sull'IA. Alla fine degli anni 2010, un composito gruppo di legislatori, giuristi, accademici, ingegneri e scienziati sociali impegnati nel campo dell'intelligenza artificiale si poneva un interrogativo cruciale: Cosa si deve fare?
Le risposte a questo interrogativo si sono progressivamente cristallizzate in quadri etici per l'IA, numerosi dei quali sono stati pubblicati da varie istituzioni internazionali nel corso della fine degli anni 2010.
Alcuni di questi framework etici, come le Linee Guida Etiche per un'Intelligenza Artificiale Affidabile dell'UE (2019), hanno rappresentato il fondamento concettuale per le successive regolamentazioni normative.
Nel corso dello stesso decennio, numerosi paesi hanno elaborato Strategie Nazionali per l'IA, corredate da analisi SWOT, al fine di delineare il proprio approccio strategico. Tra queste, una delle più esaustive è stata la prima Strategia Nazionale per l'IA della Türkiye, pubblicata nel 2021 dal Ministero dell'Industria e della Tecnologia congiuntamente all'Ufficio per la Trasformazione Digitale della Presidenza. Questo documento ha supportato il percorso di trasformazione digitale del paese, definendone con precisione la roadmap tecnologica.
Il 2021 è stato un anno cruciale anche per la strategia dell'IA dell'Unione Europea. I 27 Stati membri hanno concordato di istituire un quadro normativo comune. Basandosi sulle linee guida etiche del 2019, la Commissione Europea ha proposto una regolamentazione organica per i sistemi di intelligenza artificiale, che è ormai prossima alla sua forma definitiva.
Nel quadro delle Linee Guida Etiche sull'IA del 2019, la Commissione Europea ha proposto nel 2021 un regolamento sui sistemi di intelligenza artificiale, che è ormai prossimo alla sua forma definitiva. La pubblicazione nella Gazzetta Ufficiale dell'UE è attesa entro la fine del 2024.
Un percorso irto di difficoltà
Il cammino verso l'approvazione del regolamento è stato tutt'altro che lineare e ha incontrato numerose sfide. Nel novembre 2023, in seguito al Summit sulla Sicurezza dell'IA ospitato dal Regno Unito e a un ordine esecutivo sull'IA emanato dagli Stati Uniti, le tre principali economie dell'UE – Francia, Germania e Italia – hanno elaborato un documento non ufficiale volto a preservare l'approccio neutrale rispetto alla tecnologia e basato sul rischio dell'AI Act dell'UE.
Il documento mette in evidenza come i rischi connessi ai sistemi di machine learning siano strettamente legati alla loro implementazione e non alla tecnologia in sé.
Le tre economie hanno sostenuto che, invece di introdurre regolamenti stringenti, sarebbe più opportuno implementare codici di condotta per i modelli di base dell'IA generativa, un approccio che ha ulteriormente complicato il processo di definizione dell'AI Act dell'UE.
Fortunatamente, dopo lunghe trattative è stato infine raggiunto un testo di compromesso, coronando gli sforzi pluriennali: l'AI Act dell'UE è ormai una realtà. Inoltre, è stato di recente istituito un AI Board con il compito di garantire l'efficace attuazione del regolamento.
Come esplicitato nel primo articolo del testo di compromesso, l'obiettivo primario di questo regolamento è assicurare un elevato livello di protezione in molteplici ambiti: salute, sicurezza, diritti fondamentali, democrazia, stato di diritto e tutela ambientale. L'ambito di applicazione dell'AI Act è extraterritoriale, seguendo un modello analogo a quello adottato dal GDPR.
L'AI Act si applica ai fornitori di sistemi di intelligenza artificiale, indipendentemente dal fatto che siano stabiliti all'interno o all'esterno del territorio dell'UE, qualora tali sistemi vengano immessi sul mercato europeo o resi disponibili come servizio nell'Unione Europea.
Conseguentemente, un'azienda turca, statunitense o di qualsiasi altra nazionalità che intenda vendere un prodotto o offrire un servizio nel mercato dell'UE dovrà necessariamente conformarsi alle norme stabilite dall'AI Act.
Nel testo del regolamento è stato adottato un approccio neutrale rispetto alla tecnologia. Tale scelta strategica mira a garantire che il regolamento sia "a prova di futuro", tenendo conto del rapido e continuo evolversi delle tecnologie di intelligenza artificiale.
In questo modo, i sistemi di intelligenza artificiale potranno essere valutati nell'ambito di tecnologie relativamente nuove come la realtà aumentata (AR) e le interfacce cervello-macchina (la tecnologia su cui si basa Neuralink di Elon Musk), che diventeranno parte integrante delle nostre vite con le nuove tecnologie di comunicazione wireless nel prossimo futuro.
Approccio basato sul rischio
Inoltre, l'AI Act dell'UE adotta un approccio basato sul rischio. In questo contesto, il rischio è inteso come potenziale minaccia alla salute, alla sicurezza e ai diritti fondamentali. Questo approccio basato sul rischio si riferisce a uno schema di conformità giuridica direttamente proporzionale ai pericoli che i sistemi di intelligenza artificiale possono comportare.
I sistemi di intelligenza artificiale che presentano rischi inaccettabili sono vietati dall’AI Act dell’UE. Ad esempio, i sistemi di riconoscimento delle emozioni utilizzati in contesti lavorativi o educativi rientrano in questa categoria, poiché portano i rischi considerati inaccettabili.
Di conseguenza, un sistema di IA impiegato per valutare l’umore dei lavoratori—ad esempio se sono tristi o felici—o per monitorare l’attenzione e lo stato d’animo degli studenti sarebbe proibito. I fornitori di tecnologie educative basate sull’intelligenza artificiale devono tenere conto di questo vincolo prima di entrare nel mercato europeo.
D’altro canto, se un sistema di IA viene classificato come ad alto rischio in base alla definizione del regolamento, i suoi fornitori devono soddisfare specifici requisiti, tra cui verifiche di conformità e altre condizioni stabilite dall’AI Act per garantire la sicurezza e la protezione dei diritti fondamentali.
Secondo l’AI Act, gli strumenti utilizzati per la selezione dei candidati durante il processo di reclutamento sono un esempio di sistema di intelligenza artificiale ad alto rischio. Da quando questi strumenti hanno iniziato a essere impiegati per la pubblicazione di annunci di lavoro o durante i colloqui, sono emerse numerose questioni legali legate a pregiudizi e discriminazioni.
Pertanto, come qualsiasi fornitore di sistemi di IA ad alto rischio, anche i fornitori di tecnologie per le risorse umane devono considerare con attenzione gli obblighi normativi e il peso della conformità regolamentare.
Tuttavia, obblighi più stringenti sono previsti per i fornitori di modelli di intelligenza artificiale a scopo generale, come ChatGPT di OpenAI. Secondo il testo di compromesso, il test di un sistema di IA nel mondo reale non sarà vietato, a condizione che vengano applicate le necessarie misure di salvaguardia.
Per sostenere l’innovazione, però, i sistemi e i modelli di IA sviluppati e messi in servizio esclusivamente per scopi di ricerca scientifica e sviluppo sono esclusi dall’ambito di applicazione dell’AI Act.
Fino al rilascio di ChatGPT nel 2022 da parte di OpenAI, alcuni sostenevano che l’adozione di principi etici e/o codici di condotta fosse sufficiente per prevenire i rischi associati ai sistemi di intelligenza artificiale.
Negli Stati Uniti prevaleva l'idea che qualsiasi tentativo di regolamentazione avrebbe ostacolato l'innovazione. Per questo motivo, gli Stati Uniti hanno adottato un approccio cauto verso l'introduzione di normative specifiche.
Durante la presidenza Obama, furono comunque sviluppate roadmap relative all'intelligenza artificiale, ma si preferì un approccio basato su una regolamentazione minima e un'innovazione massima. Tuttavia, tale strategia si è rivelata insufficiente, poiché i modelli linguistici di grandi dimensioni presentano numerosi rischi che non possono essere mitigati esclusivamente attraverso principi etici.
Così, un ordine esecutivo presidenziale sull’intelligenza artificiale è stato emesso negli Stati Uniti poco prima del Summit sulla Sicurezza dell’IA, tenutosi a Londra nel novembre 2023.
Osservando la situazione negli Stati Uniti, possiamo affermare che la regolamentazione non è più un’ipotesi remota. Gli sviluppi rapidi e i possibili impatti del modello ChatGPT di OpenAI, annunciato nel 2022, hanno iniziato a farsi sentire anche negli USA.
I rischi legati alla privacy e alla sicurezza dei modelli di intelligenza artificiale generativa sono significativamente più elevati rispetto a quelli delle tecnologie precedenti. Per questo motivo, la riduzione di tali rischi è possibile solo attraverso misure tecnologiche adeguate e regolamentazioni legali efficaci.
Sulla base di quanto sopra, le regolamentazioni legali riguardanti l'intelligenza artificiale sono state incluse nell'agenda degli Stati Uniti. Il 30 ottobre, è stato rivelato l'ordinamento normativo sull'intelligenza artificiale più completo degli Stati Uniti, all'interno di questo ordine esecutivo.
L'ordine richiede una maggiore trasparenza da parte delle aziende di IA su come funzionano i modelli di intelligenza artificiale che sviluppano. Di conseguenza, verranno creati nuovi standard, come l'etichettatura dei contenuti creati dall'intelligenza artificiale.
Secondo la Casa Bianca, lo scopo dell'ordine è aumentare la "sicurezza e protezione dell'IA". Tuttavia, ci sono dubbi sull'efficacia dell'ordine, poiché viene considerato "troppo morbido" e la sua natura vincolante è controversa.
In particolare, il testo include l'obbligo per gli sviluppatori di condividere con il governo degli Stati Uniti i risultati dei test di sicurezza per i nuovi modelli di intelligenza artificiale, nel caso in cui i test evidenzino che la tecnologia potrebbe rappresentare un rischio per la sicurezza nazionale.
Il 2024 si preannuncia come un anno cruciale per gli sforzi normativi sullo sviluppo e l'implementazione dell'IA, che si tradurranno in leggi reali che affiancheranno quelle già emanate nell'ambito delle strategie sui dati.
Poiché i dati e il controllo dei dati definiscono la rivoluzione dell'intelligenza artificiale, la regolamentazione sulla governance dei dati, la protezione dei dati e le normative per gli spazi di dati aperti costituiranno il nucleo della legge sull'IA, insieme alle regole specifiche per questa tecnologia.
Per un futuro prospero, è fondamentale trovare una formula per un quadro giuridico sull'IA in cui tutti possano beneficiare di queste tecnologie.
Nel suo libro Lo Hobbit, J.R.R. Tolkien disse che le cose senza problemi e perfette non fanno storie; tutte le storie sono degne di essere raccontate nei tempi complessi e difficili.
Oggi, come spesso accade, ci troviamo in un periodo sfidante e incerto. È anche più accessibile e significativo essere deterministi piuttosto che semplicemente ottimisti.
E la citazione di Tolkien sarà la forza guida mentre tutti creano nuove storie nelle nostre vite nel 21° secolo.