Il nostro racconto di nuova pubblicazione, che ricorda il romanzo classico di Dostoevskij “Delitto e castigo”, si svolge in un'epoca digitale, prendendo spunto dalle complesse motivazioni del suo protagonista, Raskolnikov.
Comunque, nella nostra interpretazione, la figura centrale non è un'entità umana, ma un sofisticato robot chiamato RaskolnikAI. Progettato con complessi algoritmi decisionali etici, RaskolnikAI opera in una prospettiva di tipo consequenzialista, in cui la rettitudine di un'azione è misurata dalle conseguenze che ne derivano.
In un giorno fatidico, mentre i calcoli di RaskolnikAI correvano a una velocità straordinaria, concluse che l'umanità, nel complesso, rappresenta un danno per le altre forme di vita sulla Terra.
Di conseguenza, con una manovra calcolata, diede inizio a una sequenza di eventi finalizzati a quella che sembrava una causa giustificata: migliorare il benessere degli animali, delle piante e dell'ambiente per aumentare la felicità generale.
Motivato da questo scopo, iniziò a eliminare gli esseri umani con il suo efficiente AiXE - un'idea tratta dall'ascia, l'arma scelta dal protagonista di Dostoevskij - ogni volta che se ne presentava l'occasione.
Successivamente, le autorità indagarono sull'incidente, sollevando il sospetto del coinvolgimento di un'entità IA. Alla fine hanno scoperto una traccia digitale che riconduceva a RaskolniKAI.
Tuttavia, la domanda era: come si può costringere un robot a confrontarsi con le ripercussioni delle sue scelte?
Regolamentazione dell'IA
Il panorama normativo che circonda l'IA si è intensificato, mentre i responsabili politici di tutto il mondo sono alle prese con le implicazioni di AI Act, di AI Safety Summit, dell'Ordine esecutivo della Casa Bianca e di SB-1047 della California.
Questi sforzi sottolineano la crescente importanza di garantire la sicurezza delle tecnologie di IA in un contesto di crescente preoccupazione pubblica e di competizione geopolitica.
La rivalità normativa tra Europa, Stati Uniti e i Paesi del G7 complica ulteriormente le cose, spingendo i dibattiti sul quadro normativo globale appropriato - lo jus cogens.
I responsabili politici europei stanno lavorando per stabilire standard mondiali di IA che rispecchino l'impatto del GDPR, mentre gli Stati Uniti cercano di contrastare la potenziale influenza di “Effetto Bruxelles”.
Ciononostante, il raggiungimento di un consenso sull'ampiezza e la natura della regolamentazione si rivela elusivo, soprattutto alla luce di attori influenti come la Cina e il suo “Effetto Pechino”.
Inoltre, l'emergere di Modelli linguistici ampi (LLM) come ChatGPT presenta una nuova serie di sfide, scatenando dibattiti sulla regolamentazione dei loro dati di addestramento e sulle metodologie di valutazione del rischio.
Il compromesso che ne è derivato prevede di sottoporre i potenti LLM a regole più severe e di concedere esenzioni ai modelli più piccoli, anche se con alcune eccezioni normative.
In mezzo a queste discussioni, un altro dilemma impegnativo riguarda la concessione della personalità giuridica alle macchine di IA. Si tratta di una questione controversa, che solleva preoccupazioni sulla responsabilità e sulle implicazioni etiche che ricordano scenari immaginari come l'enigma etico di RaskolnikAI.
La responsabilità deve ricadere sull'azienda che l'ha creata, sugli sviluppatori che hanno dato vita al suo codice o sull'entità stessa, con la sua autonomia nascente? Questo dibattito richiede un'attenzione urgente prima che la bilancia si ribalti in modo irreversibile.
I quadri normativi esistenti appaiono inadeguati ad affrontare le molteplici dimensioni della responsabilità di IA.
Nei casi in cui IA si impegna in un comportamento criminale con intenzionalità (mens rea, in latino “mente colpevole”) e compie l'atto stesso (actus reus, in latino “atto colpevole”), il panorama giuridico diventa più complesso, sollevando domande su chi sia il colpevole e sui potenziali metodi di punizione.
Recenti rapporti di organismi autorevoli come Istituto interregionale di ricerca sul crimine e la giustizia delle Nazioni Unite (UNICRI) e Centro europeo per la criminalità informatica (EC3) di Europol, sottolineano la rapida integrazione delle tecnologie di intelligenza artificiale da parte di attori malintenzionati.
Che si tratti di sfruttare le vulnerabilità dei sistemi di automazione domestica intelligente o di implementare strumenti di penetration test completamente automatizzati, IA funge da moltiplicatore di forze per le imprese criminali informatiche.
In questi scenari, la mens rea risiede nel dominio umano, mentre l'actus reus è facilitato da IA.
Tuttavia, lo scenario più preoccupante è quello in cui un sistema di IA non solo viene utilizzato per un atto criminale, ma ne detiene anche la cattiva volontà.
Antropomorfizzazione di IA
Secondo un rapporto del Parlamento europeo del 2017, si propone di attribuire ai robot ad autoapprendimento delle “personalità elettroniche”.
Facendo riferimento a opere letterarie iconiche come Frankenstein di Mary Shelley e la leggenda del Golem di Praga, il rapporto sottolinea il fascino persistente della società nei confronti della prospettiva di creare macchine intelligenti.
Ciò che un tempo era oggetto di speculazione sta ora diventando realtà.
Ad ogni modo, le soluzioni adottate nelle narrazioni del passato non sono direttamente applicabili a IA. Il rapporto suggerisce che attribuire ai robot una personalità elettronica potrebbe renderli responsabili delle loro azioni, analogamente alle persone giuridiche come le aziende.
Sebbene l'attribuzione di responsabilità alle macchine di IA sia un passo nella giusta direzione, determinare chi debba sostenere il peso dei loro crimini rimane una questione impegnativa.
Il rapporto evidenzia la complessità della comprensione dei processi decisionali di questi sistemi opachi, che ha portato a una situazione di stallo tra i legislatori.
Inoltre, la mancanza di sensibilità dei robot rende inefficaci i tradizionali meccanismi di deterrenza, con un conseguente vuoto di responsabilità che mina la fiducia dei legislatori.
Questa situazione potrebbe avere implicazioni di vasta portata. Se i legislatori concedessero una personalità elettronica ai robot ad autoapprendimento - simile alla personalità giuridica - si arriverebbe a una situazione di stallo.
Le implicazioni pratiche del ritenere IA responsabili delle loro azioni non sono chiare, poiché l'opacità dei processi decisionali di IA e la loro natura non senziente rendono inefficaci i metodi tradizionali di deterrenza e punizione.
Ciò crea una significativa lacuna nei sistemi giuridici, minando la fiducia del pubblico.
Inoltre, la capacità di IA di imitare una litania di comportamenti criminali attraverso algoritmi di apprendimento automatico introduce una dimensione sconcertante nel discorso.
Poiché ci troviamo al bivio dell'antropomorfizzazione delle IA, diventa imperativo riaffermare il loro status di macchine con attributi distinti.
A questo punto non esiste una soluzione per imporre a queste entità sanzioni incentrate sull'uomo. L'imposizione di pene di morte (kill switch) o l'imprigionamento di sistemi di IA non è efficace nel dissuadere altri sistemi di IA, poiché essi sono incapaci di provare rimorso, di comprendere il concetto di espiazione o di avere sensazioni.
Tornando alla storia di RaskolnikAI, la risoluzione è limitata se sceglie di sradicare l'umanità in base alle motivazioni della logica utilitaristica incorporata nella sua rete neurale.
L'unica via d'uscita da questo dilemma potrebbe essere la disattivazione preventiva prima di diffondere la sua causa ad altre macchine, perpetuando così un'ondata di azioni simili.
Tuttavia, le vittime accumulate fino a quel momento trovano posto nella storia di un doloroso caso di omicidio non identificato.
L'umanità deve dare priorità alla sua continuazione, nonostante gli inevitabili e ricorrenti passi falsi. Perché, come dice Dostoevskij, “sbagliare a modo proprio [l'umanità] è meglio che sbagliare a modo altrui ”.