يستخدم أصحاب العمل في عالم اليوم أنظمة تصفية مدعومة بالذكاء الاصطناعي، والتي يرى كثير من الخبراء أنها "تميز خوارزميًا" ضد الأشخاص على أساس العرق والجنس واللغة والدين.
قالت أستاذة القانون الخاص بجامعة ابن خلدون بإسطنبول، يليز بوزكورت غومروكجو أوغلو، لوكالة الأناضول، إن شركات التكنولوجيا العملاقة مثل ميتا وجوجل وأمازون معروفة باستخدام مثل هذه الأدوات، حيث توفر أدوات التصفية التلقائية هذه الوقت.
وأضافت غومروكجو أوغلو أن "التمييز الخوارزمي" يحدث عندما تحمل البيانات التي يتم تدريب الذكاء الاصطناعي عليها بالفعل تحيزات ضد مجموعات معينة، وبالتالي اتخاذ قرارات ضدهم.
وقالت غومروكجو أوغلو إن تحيزات أولئك الذين يطورون هذه الأدوات تساهم أيضًا في عدم العدالة في الوظائف المدعومة بالذكاء الاصطناعي، ونتيجة لذلك، فقد أوضحت أن عددًا أقل بكثير من الأشخاص ذوي البشرة الملونة والنساء يمكنهم المرور عبر فلترة الذكاء الاصطناعي.
وأضافت أن هذه القضية كانت موضوع دعاوى قضائية متعددة في العديد من البلدان حتى الآن، حيث ظهرت لأول مرة في قضية تتعلق بأمازون.
وتابعت "أمازون طورت خوارزمية التوظيف الخاصة بها باستخدام البيانات التي تم تدريبها عليها بواسطة المرشحين الذين تم قبولهم في العقد الماضي، وكان معظمهم من الرجال. وعندما تم استخدامها، قامت التصفية بتصفية المرشحات الإناث بشكل مباشر".
وأردفت أن "فيسبوك، على نحو مماثل، دفع بسياسة التصفية التمييزية التي ظهرت كحالة في الولايات المتحدة في عام 2018، وفرضت الحكومة الدنماركية غرامة إدارية على منصة التواصل الاجتماعي لنفس السبب".
من الموسيقى وتسريحات الشعر
لكن الأمر لا ينتهي عند هذا الحد، حيث أشارت غومروكجو أوغلو إلى أن بعض المرشحين تم رفضهم من خلال خوارزميات التوظيف بسبب تسريحات الشعر السوداء التقليدية، أو العيش في مناطق ذات كثافة عالية من المهاجرين، أو حتى الاستماع إلى فنانين وأنواع معينة من الموسيقى.
وقالت إن المطورين والشركات التي تستخدم أدوات تصفية التوظيف هذه يجب أن تلتزم بحقوق الإنسان والقيم، ويجب على السلطات المختصة والحكومات مراقبة الانتهاكات الأخلاقية عن كثب. "على سبيل المثال، قرر الاتحاد الأوروبي تنفيذ لائحة بشأن مخاطر استخدام الذكاء الاصطناعي في هذا المجال".
وأشارت إلى أنه قد يكون من الضروري إنشاء هيئة تنظيمية عالمية بشأن استخدام الذكاء الاصطناعي في التوظيف لمنع التمييز.
وأضافت "ما دامت بياناتنا غير محمية بشكل صحيح، فإن بصمتنا الرقمية تقع في أيدي الشركات ويمكن استخدامها لتقييمنا، حيث لم يعد يتم الحكم بنا فقط من خلال سيرتنا الذاتية.".
وأضافت "هل نترك الذكاء الاصطناعي يتطور بالسرعة التي يتطور بها اليوم، أم نضغط على المكابح قليلا ونتقدم ببطء في إطار أخلاقي؟ سنرى الإجابة في الفترة المقبلة".