Deși, în general, comparăm era datelor mari și a inteligenței artificiale cu revoluția motoarelor cu aburi, descoperirile geografice ar putea oferi, de asemenea, un punct de referință diferit în această privință.
Chiar dacă au determinat omenirea să creeze noi structuri comerciale, economice și politice, aceste descoperiri nu au putut, totuși, să creeze oportunități egale pentru toți.
Chiar și în scrierea istoriei, există o lipsă de empatie în termenul de „descoperire” a Americii. Civilizațiile trăiau în America înainte de 1493.
Această înțelegere unilaterală a istoriei are nevoie de mai multă empatie și este o abordare inadecvată și periculoasă a educației copiilor de mâine.
Astăzi, pentru ca sistemele de inteligență artificială să ajute oamenii să învețe misterele universului, să îmbunătățească agricultura pentru a se asigura că toată lumea are acces la hrană și să dezvolte servicii de sănătate preventive, trebuie să fim capabili să realizăm ceea ce noi, ca umanitate, nu am fost capabili să realizăm până acum: o dezvoltare tehnologică echitabilă.
Pentru aceasta, avem nevoie de un hardware juridic în care să fie încorporată etica.
De aceea, este esențial ca dezvoltarea și utilizarea sistemelor IA, care sunt mult mai cuprinzătoare și mai practice decât alte tehnologii, să fie reglementate prin lege.
În acest scop, în decembrie 2023, în Uniunea Europeană s-a ajuns la un acord provizoriu cu privire la cel mai cuprinzător regulament privind dezvoltarea și utilizarea inteligenței artificiale din lume.
Dar să derulăm povestea odiseei reglementării IA.
Până la sfârșitul anilor 2010, legiuitorii, profesioniștii din domeniul juridic și cadrele universitare care lucrau în domeniul dreptului, inginerii și oamenii de știință implicați în domeniul IA aveau o singură întrebare în minte: Ce ar trebui făcut?
Răspunsurile la această întrebare s-au transformat în cadre etice privind IA, dintre care majoritatea au fost publicate de numeroase instituții din întreaga lume la sfârșitul anilor 2010.
Unele dintre aceste cadre etice privind inteligența artificială, cum ar fi Orientările etice ale UE privind IA pentru o inteligență artificială demnă de încredere (2019), au constituit baza unor reglementări care vor fi adoptate în curând.
În cursul aceluiași deceniu, multe țări din întreaga lume au publicat, de asemenea, strategii naționale privind IA, inclusiv analize SWOT.
Una dintre cele mai cuprinzătoare dintre aceste strategii, primul Raport privind strategia națională în materie de inteligență artificială a Turkiye, a fost publicat în 2021 de Ministerul Industriei și Tehnologiei și de Biroul de transformare digitală al Președinției Turkiye, a cărui activitate sprijină foaia de parcurs digitală a țării.
Anul 2021 a fost, de asemenea, crucial pentru strategia UE privind inteligența artificială, deoarece gruparea celor 27 de membri a decis să formeze un cadru de reglementare comun.
În lumina orientărilor sale din 2019 privind etica IA, Comisia Europeană a propus în 2021 un regulament privind sistemele IA, care a ajuns aproape la forma sa finală.
Se așteaptă ca acesta să fie publicat în Jurnalul Oficial al UE înainte de sfârșitul anului 2024.
Drumuri stâncoase
Cu toate acestea, călătoria a fost anevoioasă și, uneori, drumurile au fost stâncoase.
În noiembrie 2023, imediat după un summit privind siguranța inteligenței artificiale găzduit de Regatul Unit și un ordin executiv privind inteligența artificială emis de SUA, cele trei mari state membre ale UE - Franța, Germania și Italia - au emis un text neoficial menit să păstreze abordarea neutră din punct de vedere tehnologic și bazată pe riscuri a Legii UE privind inteligența artificială, afirmând că riscurile asociate cu sistemele de învățare automată sunt legate de implementare, nu de tehnologia în sine.
Aceștia au susținut că ar trebui puse în aplicare coduri de conduită în locul reglementărilor juridice privind modelele de bază ale inteligenței artificiale generative, ceea ce a transformat lucrările privind Actul UE privind inteligența artificială într-un proces complex.
Din fericire, s-a ajuns în cele din urmă la un text de compromis, iar eforturile depuse timp de mulți ani au fost răsplătite: Actul UE privind IA. De asemenea, cel mai recent, a fost înființat un consiliu pentru IA pentru a asigura punerea în aplicare eficientă a actului.
După cum se subliniază în primul articol al textului compromis al Legii AI, acest regulament urmărește să asigure un nivel ridicat de protecție a sănătății, siguranței, drepturilor fundamentale, democrației, statului de drept și protecției mediului. Domeniul de aplicare al AI Act este extrateritorial, la fel ca GDPR.
Indiferent dacă sunt sau nu stabilite pe teritoriul UE, Legea privind inteligența artificială se aplică furnizorilor de sisteme de inteligență artificială dacă acestea urmează să fie introduse pe piața UE sau puse în funcțiune în UE.
Prin urmare, dacă o societate turcă sau americană dorește să își vândă produsul sau să îl pună în funcțiune, aceasta trebuie să respecte normele Legii privind inteligența artificială.
În textul Legii UE privind inteligența artificială, a fost preferată o abordare neutră din punct de vedere tehnologic. Acest lucru se datorează faptului că Legea privind inteligența artificială este menită să fie rezistentă în fața evoluției tehnologice constante.
În acest fel, sistemele de inteligență artificială vor fi utilizate în cadrul unor tehnologii relativ noi, cum ar fi realitatea augmentată (AR) și interfețele creier-mașină (tehnologia de care depinde Neuralink a lui Elon Musk), care vor deveni în scurt timp o parte din viața noastră cu noua generație de tehnologii de comunicare fără fir, pot fi, de asemenea, evaluate în cadrul domeniului de aplicare al regulamentului.
Abordare orientată spre risc
În plus, Legea UE privind IA are o abordare orientată spre risc. Riscul este înțeles aici ca fiind riscul pentru sănătate, siguranță și drepturile fundamentale. Această abordare bazată pe riscuri se referă la un sistem de conformitate juridică direct proporțional cu pericolele pe care le pot prezenta sistemele de inteligență artificială.
Sistemele AI care prezintă riscuri inacceptabile sunt interzise. De exemplu, sistemele de recunoaștere a emoțiilor care sunt utilizate la locul de muncă sau în instituțiile de învățământ sunt considerate a prezenta riscuri inacceptabile.
Astfel, în conformitate cu Legea UE privind inteligența artificială, un sistem de inteligență artificială care este utilizat pentru a evalua starea de spirit a lucrătorilor, dacă sunt triști sau fericiți, sau atenția sau starea de spirit a elevilor, ar fi interzis. Orice furnizor de programe de tehnologie educațională bazate pe IA ar trebui să ia în considerare acest aspect atunci când intră pe piața UE.
Pe de altă parte, în cazul în care un sistem AI prezintă un risc ridicat, astfel cum este definit în regulamentul UE, furnizorii acestor sisteme sunt obligați să îndeplinească condițiile de audit și alte condiții specificate în regulament.
În conformitate cu Legea privind inteligența artificială, instrumentele de selecție a candidaților la un loc de muncă în timpul recrutării ar fi un exemplu de sistem de inteligență artificială cu risc ridicat. De când aceste instrumente au început să fie utilizate pentru anunțuri de angajare sau interviuri de angajare, tind să apară numeroase probleme juridice legate de părtinire și discriminare.
Prin urmare, la fel ca orice furnizor al unui sistem AI cu risc ridicat, furnizorii de tehnologii pentru resurse umane trebuie să țină cont de conformitatea cu reglementările și de sarcinile aferente.
Cu toate acestea, furnizorii de modele AI de uz general, precum ChatGPT al OpenAI, trebuie să respecte obligații mai stricte. Conform textului compromis, testarea unui sistem AI în lumea reală nu va fi interzisă decât dacă se aplică garanțiile necesare.
Totuși, pentru a sprijini inovarea, sistemele și modelele de inteligență artificială dezvoltate și puse în funcțiune în scopul exclusiv al cercetării și dezvoltării științifice sunt excluse din domeniul de aplicare al AI Act.
Până la lansarea ChatGPT în 2022 de către OpenAI, unii susțineau că principiile etice și/sau codurile de conduită erau suficiente pentru a preveni riscurile sistemelor AI.
În special în SUA, a existat o convingere comună că orice încercare de reglementare ar împiedica inovarea. Acesta a fost motivul pentru care SUA nu au întârziat cu orice efort de reglementare.
În schimb, începând din timpul președinției Obama, au fost elaborate foi de parcurs privind IA. Cu toate acestea, o abordare de reglementare minimă și inovare maximă s-a dovedit insuficientă, deoarece modelele lingvistice de mari dimensiuni prezintă numeroase riscuri care nu pot fi rezolvate doar prin cadre etice.
Astfel, un decret prezidențial american privind inteligența artificială a fost scos la iveală chiar înainte de Summitul britanic privind siguranța inteligenței artificiale, care a avut loc în noiembrie 2023 la Londra.
Privind la SUA, putem spune că reglementarea nu mai este o posibilitate îndepărtată. Evoluțiile rapide și posibilele efecte ale modelului ChatGPT al companiei Open AI, anunțat publicului în 2022, au început să se reflecte în SUA.
Riscurile de confidențialitate și securitate ale modelelor generative de inteligență artificială sunt mult mai mari decât cele ale tehnologiilor anterioare, astfel încât minimizarea acestor riscuri este posibilă prin măsuri tehnologice și reglementări juridice eficiente.
Pe această bază, reglementările juridice privind inteligența artificială au fost incluse în agenda SUA. La 30 octombrie, în cadrul acestui ordin a fost dezvăluit cel mai cuprinzător cadru de norme privind inteligența artificială din SUA.
Ordinul solicită o mai mare transparență din partea companiilor de inteligență artificială cu privire la modul în care funcționează modelele de inteligență artificială pe care le dezvoltă. În consecință, acesta va crea mai multe standarde noi, cum ar fi etichetarea conținutului creat de inteligența artificială.
Scopul ordinului este de a spori „siguranța și securitatea IA”, potrivit Casei Albe. Cu toate acestea, există îndoieli cu privire la eficacitatea ordinului, deoarece este „prea moale”, iar caracterul său obligatoriu este controversat.
În special, textul include obligația dezvoltatorilor de a împărtăși rezultatele testelor de securitate pentru noile modele de inteligență artificială cu guvernul SUA în cazul în care testele de securitate arată că tehnologia poate reprezenta un risc pentru securitatea națională.
Anul 2024 promite să fie o linie de hotar în eforturile de reglementare privind dezvoltarea și implementarea inteligenței artificiale, care se vor dovedi a fi legi din viața reală ce însoțesc legile adoptate în cadrul strategiilor privind datele.
Întrucât datele și controlul datelor definesc revoluția IA, reglementările privind guvernanța și protecția datelor, precum și cadrele juridice pentru spațiile de date deschise vor constitui corpusul legislației privind IA, alături de normele specifice acestei tehnologii.
Pentru un viitor luminos, este important să găsim o formulă pentru un cadru juridic pentru IA în care toată lumea să beneficieze de aceste tehnologii.
În cartea sa The Hobbit, JRR Tolkien spunea că lucrurile perfecte și fără probleme nu fac povești, toate poveștile merită spuse în vremuri complexe și tulburi.
Astăzi, așa cum s-a întâmplat adesea, ne aflăm într-o perioadă dificilă și incertă. De asemenea, este mai accesibil și mai semnificativ să fim mai degrabă determiniști decât doar optimiști.
Așadar citatul lui Tolkien va fi forța călăuzitoare pe măsură ce toți creăm noi povești în viața noastră în secolul XXI.