Току-що кандидатствахте за работата на мечтите си. Прекарахте часове в подготовка на автобиографията и мотивационното си писмо. Чувствате се развълнувани и изпълнени с надежда. Ако получите тази работа, всичко може да се промени! А след това...
Мислехте, че сте идеални за тази работа. Сега се питате: Защо не ме избраха? Ето изненадващата част – вашата кандидатура може би никога не е била видяна от човек.
Всяка година Amazon получава над 200 000 автобиографии за различните позиции, за които набира персонал. Google получава десет пъти повече – над 2 милиона автобиографии. Представете си, че сте мениджър, отговорен за проверката на тези кандидатури. Това е много трудна задача.
За да се справят с това, много компании използват изкуствен интелект ИИ, за да помогнат при сортирането на кандидатурите. Тези системи помагат да се реши кой кандидат трябва да получи работата.
Но ето проблема: нови изследвания показват, че ИИ отхвърля кандидатури по причини, които нямат нищо общо с квалификацията. Полът, расата и дори личните интереси могат да повлияят дали даден кандидат ще бъде филтриран. Експертите наричат това алгоритмична дискриминация.
Полови предразсъдъци, расови предразсъдъци и други форми на дискриминация са проблеми при наемането на работа от векове.
Първоначално ИИ се разглеждаше като решение за намаляване на човешките предразсъдъци, обещавайки справедливост и ефективност. Но ИИ може да бъде справедлив само толкова, колкото са справедливи данните, от които се учи.
Ако данните, предоставени на ИИ, включват история на дискриминация, тогава ИИ включва тези предразсъдъци в своята система. Вземете примера с Amazon. Исторически погледнато, повечето от предишните им наети служители са били мъже.
И така, когато ИИ сканира автобиографии...
..."предпочита" мъжете кандидати. Това означава, че квалифицираните жени са автоматично изключвани преди изобщо някой да е прегледал техните кандидатури.
Решенията на ИИ често се възприемат като неутрални, но не са. Проучване на ЮНЕСКО от 2024 г. установи, че Големите езикови модели / или LLM/, често засилват стереотипите. Те са присъждали на жените нископоставени, домакински роли, а на мъжете – по-разнообразни работни места с по-висок статус.
И проблемът се разпростря до расови предразсъдъци. ИИ несправедливо отхвърля кандидати с традиционни прически на чернокожи или от квартали с голям брой имигранти.
Тази дефектна система пречи на кандидатите да получат желаната работа и пречи на фирмите да привлекат квалифицирани кандидати. И докато ИИ става все по-интегриран в решенията за наемане на служители, тази предубеденост може да стане по-трудна за забелязване. Защото как може да докажете, че алгоритъм ви е дискриминирал, ако не знаете как работи?
Тъй като решенията на ИИ често се възприемат като "неутрални", много хора дори не разпознават проблема. Проучване на Университета в Минесота през 2024 г. проведе няколко онлайн експеримента с над 1 100 участници, за да види как се чувстват относно решенията за наемане, взети от ИИ или хора. Установиха, че 66 % от безработните жени предпочитат алгоритъм пред мъж оценител за оценка на шансовете им за работа. Но само 39% от жените са предпочели ИИ пред жена оценител. Във всеки случай, участничките са предпочели ИИ пред хората за решения за наемане.
Трябва да образоваме както търсещите работа, така и работодателите относно потенциалните проблеми при разчитането само на ИИ. Комбинацията от бързина и последователност на ИИ с човешката емпатия и преценка би могла да създаде по-справедлив процес на наемане.
Мислете за това като за партньорство – ИИ може бързо да обработва големи количества данни, но хората могат да интерпретират контекста и да разпознават индивидуалността.
Независимо дали сте търсещ работа или работодател, въпросът остава: Даваме ли приоритет на справедливостта или сляпо се доверяваме на системи, които изглеждат безпристрастни? Докато продължаваме да приемаме технологията, от всички нас зависи да изискваме прозрачност и справедливост в начина, по който се използват тези инструменти. И както винаги, целта трябва да бъде равни възможности за всички, независимо от пола, расата или произхода.
Това е всичко засега. Благодарим ви, че ме слушахте, и до следващия път, останете справедливи и информирани! Този подкаст е адаптация на статия за TRT World.