Marion Fernando
Da Hollywood e Washington alle timeline dei social media e al World Wide Web, i deepfake - una combinazione di “deep learning” e “fake” - e altri media sintetici realizzati con l'intelligenza artificiale (AI) sono proliferati più rapidamente di quanto si potesse immaginare.
Solo nel 2023 sono stati trovati almeno 95.820 video deepfake diffusi su Internet.
Certo, può essere bello e divertente guardare Kendrick Lamar trasformarsi in Kanye, Will Smith e Nipsey nel singolo The Heart Part 5 del rapper vincitore del premio Pulitzer nel 2022. Potreste persino provare un senso di catarsi nel rivedere una clip renderizzata di Jon Snow che si scusa per la trama dell'ultima stagione di Game of Thrones, se siete tra coloro che sono (ancora) insoddisfatti di come si è conclusa l'iconica serie.
Tuttavia, cosa succede quando questi casi di manipolazione dell'IA vengono applicati per scopi più nefasti? I dati e i sondaggi indicano che la maggior parte delle persone non è in grado di rilevare in modo affidabile i deepfake, e alcuni hanno ammesso di aver guardato video che inizialmente pensavano fossero reali, per poi scoprire che erano falsi.
Per la maggior parte, i riflettori sui pericoli che i deepfakes rappresentano sono puntati sulla disinformazione di tipo politico. Questa tecnologia, tuttavia, è stata costantemente utilizzata per molestare e abusare di donne, tra cui Taylor Swift, il cui privilegio e lo status di pop star non l'hanno esclusa dall'essere vittima di materiale pornografico non consensuale.
“Purtroppo non dovremmo essere così sorpresi dal fatto che i deepfakes vengano usati per degradare le donne”, spiega a TRT World la professoressa assistente presso il Dipartimento di Informazione e Comunicazione dell'Université Laval Sophie Toupin.
Da quando, a fine gennaio, i deepfakes sessualmente espliciti della cantante Anti-Hero sono diventati virali sulle piattaforme dei social media, i fan sfegatati della Swift, noti come Swifties, sono entrati in azione. I fan hanno rapidamente riempito X di immagini positive della Swift e hanno segnalato gli account che condividevano i deepfakes, facendo diventare di tendenza l'hashtag #ProtectTaylorSwift.
Secondo Toupin, il modo in cui gli Swifties hanno reagito ha un'importanza sociale e culturale immensa, in quanto aiuta a stabilire norme sull'uso accettabile e non accettabile dei media sintetici generati dall'intelligenza artificiale, indipendentemente dal fatto che si sia una delle più grandi pop star del mondo.
“Sebbene questa risposta rapida abbia avuto un immenso successo, è importante riconoscere che non tutti hanno accesso a un supporto comunitario così solido”, afferma Toupin. La comunità dei fan di Taylor Swift è stata un esempio notevole di risposta femminista che ha affermato con fermezza: “Questo non è accettabile””.
Spero che tutte le donne e le ragazze che subiscono queste pratiche degradanti ricevano la stessa rapida risposta”. In effetti, a livello di comunità, questo tipo di solidarietà è esattamente ciò che serve per dire no ai falsi contenuti misogini e razzisti generati dall'intelligenza artificiale online”, aggiunge Toupin.
In termini semplicistici, i deepfakes sono una forma di media sintetici che utilizza l'intelligenza artificiale per scambiare le sembianze e l'aspetto facciale di una persona con quelle di un'altra nei video.
Il fenomeno è stato inizialmente promosso da un utente di Reddit che si faceva chiamare Deepfakes e che nel 2017 aveva iniziato a postare contenuti per adulti non consensuali e alterati digitalmente che presentavano volti di celebrità sovrapposti ai corpi di donne in film per adulti.
Parlando con Motherboard di Vice, l'utente ha dichiarato di aver utilizzato diverse librerie open-source per creare i video, tra cui TensorFlow di Google, il cui utilizzo è gratuito.
“Sul fronte tecnico, è fondamentale tenere presente che la facilità con cui molte persone possono creare deepfakes generati dall'IA dipende dal software generato dall'IA disponibile”, spiega Toupin. “Questi software sono stati addestrati su grandi quantità di contenuti generati e condivisi da noi, utenti di Internet, negli ultimi due decenni. È una questione importante da tenere presente”.
In seguito a quanto accaduto a Swift, i legislatori e i comuni cittadini hanno chiesto una maggiore protezione contro le immagini create dall'intelligenza artificiale che, dall'Australia alla Spagna e ovunque nel mezzo, si sono moltiplicate a un ritmo allarmante e sempre più rapido, danneggiando soprattutto donne e bambini.
Recentemente, il deputato vittoriano Georgie Purcell ha denunciato una testata giornalistica locale per aver alterato il suo corpo per far apparire il suo seno più grande e per aver parzialmente rimosso parti del suo abbigliamento, definendo questo un esempio del “continuo, insidioso” trattamento delle donne in politica da parte dei media.
Secondo un rapporto di 2023, la pornografia deepfake costituisce il 98% di tutti i video deepfake online e il 99% degli individui presi di mira dalla pornografia deepfake sono donne, sottolineando la necessità di un quadro normativo migliore.
“Ricordiamoci che se consumiamo media sintetici realizzati senza il consenso della persona ritratta, anche voi siete parte del problema”, afferma Toupin. “È importante capire che si sta provando piacere nella violenza digitale di genere”.
Per quanto rivoluzionaria, l'era dei deepfakes sta creando nuove sfide e timori per i legislatori e i governi che si stanno affannando a regolamentare adeguatamente questa tecnologia che ha la capacità di far sembrare che chiunque dica e faccia qualsiasi cosa in qualsiasi momento.
La crescente disponibilità di disinformazione e deepfakes, si legge in un rapporto dell'Agenzia dell'Unione Europea per la Cooperazione con le Forze dell'Ordine del 2022, “avrà un profondo impatto sul modo in cui le persone percepiscono le autorità e i mezzi di informazione”, oltre a minare la fiducia nelle autorità e nei fatti ufficiali.
Gli esperti temono che questo possa portare a una situazione in cui i cittadini non hanno più una realtà condivisa, o che possa creare confusione nella società su quali fonti di informazione siano affidabili; una situazione talvolta definita “apocalisse dell'informazione” o “apatia della realtà””, secondo il rapporto di Europol.
Per molto tempo, le persone si sono rivolte a foto e video per integrare qualsiasi informazione letta prima di accettare completamente qualcosa come fatto; in sostanza, hanno seguito il consiglio di “non crederci finché non lo vedi”.
In vista delle elezioni presidenziali di novembre, gli ultimi dati dicono che gli americani sono “molto preoccupati” per l'uso dell'IA e dei deepfake di candidati e personaggi politici, con una forte maggioranza di elettori di tutti i partiti che ritiene che la tecnologia debba essere adeguatamente regolamentata.
La loro preoccupazione non è infondata. Proprio il mese scorso, a gennaio, una falsa chiamata automatica che sembrava essere una voce IA del presidente Joe Biden ha esortato i residenti del New Hampshire a non votare alle elezioni primarie democratiche dello Stato.
Nel settembre 2023, il governatore della Florida Ron DeSantis è stato oggetto di un deepfake virale che annunciava il suo ritiro dalla corsa alle presidenziali del 2024, dopo che qualche mese prima aveva pubblicato un video manipolato dall'intelligenza artificiale dell'ex presidente Donald Trump e di Anthony Fauci abbracciati.
“Gli strumenti e i sistemi necessari per produrre queste cose sono facilmente disponibili”, ha dichiarato a Forbes l'analista del settore tecnologico Charles King di Pund-IT. “E, cosa altrettanto importante, l'attuale clima politico negli Stati Uniti è talmente fratturato e sgradevole che esiste un pubblico ampio e pronto di persone di entrambi gli schieramenti pronte a credere il peggio degli altri”.
Nel giornalismo e nel lavoro investigativo, le registrazioni audio e visive, insieme alle fotografie e ai testi, non solo sono spesso considerate prove affidabili, ma aiutano anche i giornalisti e gli investigatori a determinare cosa è reale e cosa no.
Esistevano altre forme di manipolazione digitale, come Photoshop, ma di solito era necessario un certo livello di esperienza per nascondere le tracce di editing. Inoltre, i risultati non erano generalmente così sofisticati come quelli resi dalla tecnologia IA.
Con l'intelligenza artificiale nel quadro, la prospettiva di informazioni false aumenta esponenzialmente, soprattutto in tempi di conflitto e di guerra, afferma il dottor Kalev Hannes Leetaru, fondatore del Progetto GDELT, un database in tempo reale di eventi, linguaggio e toni globali.
“C'è un grande potenziale in questo momento per i cattivi attori - che si tratti di Gaza, dell'Ucraina o di qualsiasi altro conflitto - di usare questi strumenti per creare falsità iper-personalizzate e su larga scala”, spiega a TRT World Leetaru, il cui lavoro ruota attorno allo sfruttamento delle tecnologie avanzate e alla comprensione del modo in cui esse rimodellano la società globale.
“Immaginate che una piattaforma di social media o un cattivo attore possa guardare a tutta la popolazione di un intero Paese e poi prendere di mira ogni persona e darle qualcosa che sa, in base alla sua storia, che la infiammerà a tal punto da spaccare le società”, spiega, aggiungendo: ‘O al contrario, quando una documentazione legittima di crimini di guerra emerge da una zona di conflitto’.
Nel 2022, un falso video mostrava il presidente ucraino Volodymyr Zelensky che diceva ai suoi soldati di deporre le armi contro la Russia, ma molti hanno correttamente individuato i segni di una manipolazione digitale, tra cui il fatto che il suo volto sembrava leggermente sfasato rispetto alla testa e un accento che suonava fuori luogo.
L'anno successivo, a giugno, diversi media russi si sono innamorati di un video simile, falsificato ma più convincente, del presidente russo Vladimir Putin. A dicembre, un IA deepfake di se stesso ha sorpreso il presidente russo durante la conferenza stampa annuale.
La guerra di Israele contro Gaza, che ha ucciso più di 27.800 palestinesi e ne ha feriti oltre 67.000 dall'inizio degli attacchi militari il 7 ottobre, ha anche aumentato i timori sul potere dell'IA di ingannare, come riporta l'Associated Press.
In questo momento, le immagini e i resoconti di carneficine reali che provengono dall'enclave assediata sono numerosi, ma possono apparire insieme a un miscuglio di affermazioni false e verità distorte. All'inizio della guerra, immagini generate dall'intelligenza artificiale, tra cui quella virale di un bambino che piange tra le rovine di un bombardamento, hanno fatto il giro dei social media, mentre foto e video provenienti da altre zone di conflitto sono stati spacciati per prove recenti di ciò che sta accadendo a Gaza.
Nel corso del tempo, l'intelligenza artificiale ha continuato a migliorare e continuerà a farlo proprio come l'animazione al computer o i software di editing come Photoshop. Quasi tutti possono creare un falso persuasivo inserendo un testo in generatori di IA facilmente reperibili come DALL-E o Midjourney per produrre immagini, video o audio.
Gli esperti, come Leetaru, sostengono che il solo fatto che esistano i deepfakes può confondere o indurre le persone a dubitare delle notizie reali o delle immagini autentiche. “Ora si sta improvvisamente inondando l'ambiente con informazioni note come false, in modo da poter dire: 'Beh, quelle immagini che rappresentano crimini di guerra, sono solo notizie false come quest'altra roba'”.
In parole povere, la capacità di creare prove false convincenti è preoccupante e, oltre a ciò, permette alle persone di ignorare le prove reali, minando la fiducia nelle immagini e nei video registrati come rappresentazioni oggettive della realtà.
Il presidente e amministratore delegato della Kühne Logistics University tedesca, Andreas Kaplan, che è anche professore di trasformazione digitale, osserva che non ci sono dubbi sul fatto che i contenuti generati dall'intelligenza artificiale, compresi i video deepfake e tecnologie simili, svolgano un ruolo significativo nel plasmare le narrazioni, influenzare l'opinione pubblica e amplificare prospettive specifiche.
Tuttavia, il suo impatto sulla diffusione di informazioni false è molto meno potente.
“Per dirla in un altro modo, l'IA generativa semplifica principalmente l'offerta di disinformazione e di informazioni errate, piuttosto che la domanda o la successiva diffusione”, spiega Kaplan a TRT World, aggiungendo che il vero problema emerge quando le persone si affidano agli strumenti di IA per ottenere informazioni, il che ‘non è molto diverso dall'accettare le informazioni su Wikipedia come dati di fatto o dal credere alle telefonate automatiche ricevute durante una campagna politica’.
Pur riconoscendo che gli organismi di regolamentazione sono spesso in ritardo rispetto allo stato attuale delle cose, Kaplan sottolinea che sono in corso sforzi per affrontare l'abuso e l'uso improprio dei contenuti mediatici generati dall'intelligenza artificiale, compresi i deepfake. “Degno di nota è il progetto di regolamento della Commissione dell'Unione Europea sull'intelligenza artificiale, che impone l'etichettatura di tutti i contenuti creati con la tecnologia deepfake”.
Kaplan si riferisce alla legge sull'intelligenza artificiale, per la quale è stato raggiunto un accordo provvisorio il 9 dicembre 2023. Proposto per la prima volta nell'aprile 2021, il testo concordato dovrà essere formalmente adottato dal Parlamento e dal Consiglio per diventare legge dell'UE. Una volta approvato, l'atto fornirà le linee guida per le prime norme al mondo sull'IA.
“Allo stesso modo, gli Stati Uniti hanno recentemente intensificato gli sforzi per introdurre una legislazione volta a combattere i deepfakes, una mossa probabilmente stimolata dall'avvicinarsi delle elezioni presidenziali di novembre”.
Anche il Canada sta studiando un progetto di legge per iniziare a regolamentare alcuni sistemi di IA. Nel Regno Unito, la legge sulla sicurezza online, approvata nell'ottobre del 2023, mira a rendere il Paese “il posto più sicuro al mondo per essere online” attraverso nuove leggi che adottano un approccio di tolleranza zero per proteggere i bambini dai danni online.
Per l'utente medio dei social media, secondo Kaplan, determinare se qualcosa è affidabile significa essere cauti con il materiale che si consuma e valutarlo criticamente piuttosto che accettare ciò che viene presentato al valore nominale.
“È anche importante riconoscere i propri pregiudizi, poiché spesso abbiamo la tendenza a credere alle informazioni che si allineano ai nostri preconcetti”, afferma Kaplan. “Essere consapevoli di questi pregiudizi può contribuire a un'analisi più obiettiva delle informazioni”, aggiunge il professore, la cui area di ricerca comprende i progressi dell'IA, della digitalizzazione e delle reti sociali.
“In sintesi, più le notizie sembrano sensazionali, più diventa critico analizzarne la fonte”.
FONTE: TRT World