Prejudecățile ascunse ale inteligenței artificiale în procesul recrutării
Prejudecățile ascunse ale inteligenței artificiale în procesul recrutăriiSistemele de filtrare bazate pe inteligența artificială pot favoriza în mod neintenționat anumite grupuri în detrimentul altora. Analizăm implicațiile acestei situații și necesitatea unei mai mari transparențe în procesele de recrutare bazate pe inteligența artificială.
Un logo AI
27 Februarie 2025

Tocmai ați aplicat pentru job-ul visat. Ați petrecut ore întregi cu elaborarea CV-ului și a scrisorii de intenție. Aveți emoții și speranțe. Dacă veți obține acest loc de muncă, s-ar putea schimba totul! Dar apoi…

...aplicația dvs. este respinsă.

Ați crezut că sunteți candidatura perfectă pentru job. Acum vă întrebați: De ce nu m-au ales? Iată partea surprinzătoare - este posibil ca aplicația dvs. să nu fi fost văzută niciodată de un om.

În fiecare an, Amazon primește peste două sute de mii de CV-uri pentru diversele poziții pentru care recrutează. Google primește de zece ori mai multe - cu peste două milioane de CV-uri. Imaginați-vă că sunteți managerul responsabil cu verificarea acestor aplicații. Este o sarcină extrem de dificilă.

Pentru gestionarea acestui volum, multe companii folosesc inteligența artificială pentru selectarea candidaților. Aceste sisteme ajută la determinarea candidatului care ar trebui să primească postul.

Dar iată problema: o nouă cercetare arată că aceste sisteme de inteligență artificială resping candidaturile din motive care nu au nicio legătură cu calificările. Sexul, rasa și chiar interesele personale pot influența eliminarea unui candidat. Experții numesc acest fenomen discriminare algoritmică.

Discriminarea de gen, rasială și alte forme de discriminare au reprezentat probleme în recrutarea forței de muncă timp de secole. 

Inițial, inteligența artificială era văzută ca o soluție promițătoare de corectitudine și eficiență pentru reducerea prejudecăților umane. Dar și inteligența artificială poate fi doar la fel de corectă precum datele din care învață.

Dacă datele furnizate inteligenței artificiale includ un istoric de discriminare, atunci ea încorporează aceste prejudecăți în sistemul său. Să luăm exemplul companiei Amazon. Din punct de vedere istoric, majoritatea angajaților săi au fost bărbați.

Așadar, când inteligența artificială scana CV-urile...

...ea "prefera" candidații de sex masculin. Acest lucru înseamnă că femeile calificate erau excluse automat înainte ca un om să le fi analizat aplicațiile.

Deciziile inteligenței artificiale sunt adesea considerate neutre, dar nu sunt. Un studiu UNESCO din 2024 a constatat că modelele lingvistice de mari dimensiuni, sau LLM, întăresc frecvent stereotipurile. Acestea atribuiau femeilor roluri domestice cu statut inferior, iar bărbaților locuri de muncă diverse, cu statut superior.

Problema s-a extins și la discriminarea rasială. Instrumentele de inteligență artificială au respins pe nedrept candidații cu coafuri tradiționale afro sau din cartierele cu mulți imigranți.

Acest sistem defectuos împiedică candidații să obțină locul de muncă pe care și-l doresc și împiedică firmele să dobândească candidați calificați. Și pe măsură ce  inteligența artificială devine tot mai integrată în deciziile de angajare, aceste prejudecăți ar putea fi mai greu de depistat. Pentru că cum ați putea dovedi că un algoritm v-a discriminat dacă nu știți cum funcționează? 

Deoarece deciziile inteligenței artificiale sunt adesea considerate „neutre”, mulți nici nu recunosc problema. Un studiu realizat de Universitatea din Minnesota în 2024 a efectuat mai multe experimente online cu peste o mie o sută de participanți pentru a vedea ce părere au aceștia despre deciziile de angajare luate de inteligența artificială sau de oameni. A fost dezvăluit că șaizeci și șase la sută dintre femeile șomere preferau un algoritm în locul unui evaluator de sex masculin pentru a le măsura șansele de angajare. Însă doar treizeci și nouă la sută dintre femei preferau inteligența artificială în locul unui evaluator de sex feminin. În orice caz, participantele au preferat inteligența artificială în locul oamenilor pentru deciziile de angajare.

Trebuie să informăm atât persoanele aflate în căutarea unui loc de muncă, cât și angajatorii cu privire la potențialele probleme pe care le implică utilizarea exclusivă a inteligenței artificiale. O combinație dintre viteza și coerența inteligenței artificiale și empatia și inteligența umană ar putea crea un proces de angajare mai echitabil.

Gândiți-vă la aceasta ca la un parteneriat - inteligența artificială poate procesa rapid cantități mari de date, dar oamenii pot interpreta contextul și recunoaște individualitatea.

Fie că sunteți în căutarea unui loc de muncă sau angajator, întrebarea rămâne: Să acordăm prioritate corectitudinii sau să avem încredere oarbă în sistemele care par imparțiale? Pe măsură ce continuăm să adoptăm tehnologia, depinde de noi toți să cerem transparență și corectitudine cu privire la modul în care sunt utilizate aceste instrumente. Și, ca întotdeauna, obiectivul ar trebui să fie egalitatea de șanse pentru toată lumea, indiferent de sex, rasă sau origine.


Aruncă o privire asupra TRT Global. Împărtășește feedback-ul tău!
Contact us