Скритите предубеждения на изкуствения интелект при набирането на персонал
Скритите предубеждения на изкуствения интелект при набирането на персоналТоку-що кандидатствахте за работата на мечтите си...
изкуствен интелект
преди 11 часа

Току-що кандидатствахте за работата на мечтите си. Прекарахте часове в подготовка на автобиографията и мотивационното си писмо. Чувствате се развълнувани и изпълнени с надежда. Ако получите тази работа, всичко може да се промени! А след това...

Мислехте, че сте идеални за тази работа. Сега се питате: Защо не ме избраха? Ето изненадващата част – вашата кандидатура може би никога не е била видяна от човек.

Всяка година Amazon получава над 200 000 автобиографии за различните позиции, за които набира персонал. Google получава десет пъти повече – над 2 милиона автобиографии. Представете си, че сте мениджър, отговорен за проверката на тези кандидатури. Това е много трудна задача.

За да се справят с това, много компании използват изкуствен интелект ИИ, за да помогнат при сортирането на кандидатурите. Тези системи помагат да се реши кой кандидат трябва да получи работата.

Но ето проблема: нови изследвания показват, че ИИ отхвърля кандидатури по причини, които нямат нищо общо с квалификацията. Полът, расата и дори личните интереси могат да повлияят дали даден кандидат ще бъде филтриран. Експертите наричат това алгоритмична дискриминация.

Полови предразсъдъци, расови предразсъдъци и други форми на дискриминация са проблеми при наемането на работа от векове.

Първоначално ИИ се разглеждаше като решение за намаляване на човешките предразсъдъци, обещавайки справедливост и ефективност. Но ИИ може да бъде справедлив само толкова, колкото са справедливи данните, от които се учи.

Ако данните, предоставени на ИИ, включват история на дискриминация, тогава ИИ включва тези предразсъдъци в своята система. Вземете примера с Amazon. Исторически погледнато, повечето от предишните им наети служители са били мъже.

И така, когато ИИ сканира автобиографии...

..."предпочита" мъжете кандидати. Това означава, че квалифицираните жени са  автоматично изключвани преди изобщо някой да е прегледал техните кандидатури.

Решенията на ИИ често се възприемат като неутрални, но не са. Проучване на ЮНЕСКО от 2024 г. установи, че Големите езикови модели / или LLM/, често засилват стереотипите. Те са присъждали на жените нископоставени, домакински роли, а на мъжете – по-разнообразни работни места с по-висок статус.

И проблемът се разпростря до расови предразсъдъци. ИИ несправедливо отхвърля кандидати с традиционни прически на чернокожи или от квартали с голям брой имигранти.

Тази дефектна система пречи на кандидатите да получат желаната работа и пречи на фирмите да привлекат квалифицирани кандидати. И докато ИИ става все по-интегриран в решенията за наемане на служители, тази предубеденост може да стане по-трудна за забелязване. Защото как може да докажете, че алгоритъм ви е дискриминирал, ако не знаете как работи?

Тъй като решенията на ИИ често се възприемат като "неутрални", много хора дори не разпознават проблема. Проучване на Университета в Минесота през 2024 г. проведе няколко онлайн експеримента с над 1 100 участници, за да види как се чувстват относно решенията за наемане, взети от ИИ или хора. Установиха, че 66 % от безработните жени предпочитат алгоритъм пред мъж оценител за оценка на шансовете им за работа. Но само 39% от жените са предпочели ИИ пред жена оценител. Във всеки случай, участничките са предпочели ИИ пред хората за решения за наемане.

Трябва да образоваме както търсещите работа, така и работодателите относно потенциалните проблеми при разчитането само на ИИ. Комбинацията от бързина и последователност на ИИ с човешката емпатия и преценка би могла да създаде по-справедлив процес на наемане.

Мислете за това като за партньорство – ИИ може бързо да обработва големи количества данни, но хората могат да интерпретират контекста и да разпознават индивидуалността.

Независимо дали сте търсещ работа или работодател, въпросът остава: Даваме ли приоритет на справедливостта или сляпо се доверяваме на системи, които изглеждат безпристрастни? Докато продължаваме да приемаме технологията, от всички нас зависи да изискваме прозрачност и справедливост в начина, по който се използват тези инструменти. И както винаги, целта трябва да бъде равни възможности за всички, независимо от пола, расата или произхода.

Това е всичко засега. Благодарим ви, че ме слушахте, и до следващия път, останете справедливи и информирани! Този подкаст е адаптация на статия за TRT World.


ОТКРИЙ
Индийската полиция предприема действия срещу ислямски издания в Кашмир
Защо някои паспорти са по-привилегировани от други
Гробницата на теолога Ал Газали в Иран е в полуразрушено състояние
Тюркийе стартира глобални форуми за изграждане на 'По-справедлив свят'
Президентът Ердоган: Доволни сме от примирието в Ливан
Как Вашингтон загуби възможността да оспори влиянието на Китай в Африка
Приятелката ми Айшенур беше смела защитничка на справедливостта и палестинската свобода
Швейцария освободи и депортира палестинско-американския журналист Али Абунимах
Бангладеш осъди призива на индийски политик за мироопазващи сили на ООН
Путин: "Русия ще използва „всички видове оръжия“, ако Украйна получи ядрени оръжия от Запада"
Трибуналът за военни престъпления е застрашен: Президентът на МНС
Британският премиер Стармър възражда политиката от ерата на Блеър, и изневерява на британците по въпроса за Палестина
Поглед към ционисткия тероризъм, довел до основаването на Израел
Южнокорейските депутати отхвърлиха декларацията на президента за военно положение
Палестински лекар почина в израелски затвор след като отказа да напусне Газа
Надзърнете в TRT Global. Споделете вашето мнение!
Contact us