الأخبار الأكثر تداولاً
متى يصبح الذكاء الاصطناعي قاضياً غير عادل في التوظيف؟
التحول إلى ((المُحكّم الآلي)) يضع الشركات أمام تحدي ضمان العدالة والمساواة، في ظل انتقادات متزايدة من منظمات مثل IEEE والمشرعين في الاتحاد الأوروبي والولايات المتحدة. تعتمد أنظمة الذكاء الاصطناعي للتوظيف على تدريبها على البيانات التاريخية للشركات. وهنا تكمن المشكلة الجوهرية إذا كانت بيانات التوظيف السابقة للشركة تظهر تفضيلاً غير واعٍ لفئة معينة (على أساس النوع، العرق، أو الجامعة)، فإن نظام الذكاء الاصطناعي لا يكتشف هذا التحيز، بل يُعززه ويُضخمه. فالآلة تتعلم ببساطة من الأنماط السائدة، بغض النظر عن عدالتها.
من الأمثلة البارزة التي تُستشهد بها دائماً نظام التوظيف الذي طورته أمازون وتم التخلي عنه لأنه بدأ بتخفيض درجات المتقدمات الإناث، لأنه كان مُدرباً على بيانات توظيف تاريخية هيمنت عليها طلبات وسير ذاتية من الذكور في المجال التقني.
صندوق أسود يفتقر للشفافيةتطالب المنظمات الحقوقية والتشريعية بضرورة وجود قابلية للتفسير في قرارات الذكاء الاصطناعي، وهو ما تفتقر إليه العديد من نماذج التعلم العميق عندما يتم رفض سيرة ذاتية بشكل آلي، غالباً ما يكون من المستحيل على الشركة أو المرشح فهم السبب الجذري للقرار. هل تم الرفض بسبب نقص خبرة محددة، أم بسبب نمط لغوي في السيرة الذاتية يفضله النموذج، أو بسبب تحيز غير مقصود ضد جامعة معينة؟
يهدد هذا الغموض قدرة الشركات على الدفاع عن قراراتها في المحاكم بموجب قوانين مكافحة التمييز، لا سيما في أسواق ذات تشريعات صارمة مثل الاتحاد الأوروبي والولايات الأمريكية التي بدأت في تنظيم خوارزميات التوظيف (مثل مدينة نيويورك).
الخوارزميات لا تفحص فقط الكلمات، بل تحاول أحياناً ((قراءة)) المرشحين بطرق تثير الجدل؛ لأن بعض الأدوات تفحص تعابير الوجه ونبرة الصوت للمتقدمين خلال المقابلات المصورة آلياً لتقييم ((السمات الشخصية)) و((الجاذبية للوظيفة)). ينتقد علماء الأخلاق هذا على أنه ((علم زائف)) يمكن أن يؤدي إلى تمييز ضد الأشخاص ذوي الإعاقة أو الذين لديهم أنماط تعبير غير تقليدية.
مخاوف الخصوصيةجمع كميات هائلة من البيانات الشخصية للمرشحين (مثل موقعهم، أنشطتهم على الإنترنت، وتاريخ العمل المفصل) لتدريب النماذج يثير تساؤلات حول كيفية تخزين هذه البيانات وحمايتها، وامتثال الشركات لقوانين مثل اللائحة العامة لحماية البيانات في أوروبا.
في مواجهة هذه المخاوف، يتزايد الضغط على الحكومات لفرض قيود تنظيمية، حيث يضع هذا القانون المرتقب أنظمة التوظيف بالذكاء الاصطناعي ضمن فئة ((المخاطر العالية))، مما يفرض على الشركات متطلبات صارمة للشفافية، والتوثيق، ومراجعة البيانات لضمان عدم وجود تحيز.
في الولايات المتحدة بدأت سلطات مثل لجنة تكافؤ فرص العمل في توفير التوجيهات وتنفيذ القوانين الفيدرالية القائمة لمنع التمييز الآلي.
لا يمكن إنكار الكفاءة التي يوفرها الذكاء الاصطناعي في التوظيف. لكن الخطر يكمن في تحويل قرارات التمييز البشرية السابقة إلى تكنولوجيا مؤسسية ومحصنة. التحدي يكمن في إجبار المطورين والشركات على بناء أنظمة ليست فعالة فحسب، بل ((عادلة بالتصميم))، بحيث تصبح التقنية جسراً لفرص متكافئة، لا حاجزاً خفياً.
إخلاء المسؤولية القانونية:
تعمل شركة "شبكة الشرق الأوسط
وشمال أفريقيا للخدمات المالية" على توفير المعلومات "كما هي" دون أي
تعهدات أو ضمانات... سواء صريحة أو ضمنية.إذ أن هذا يعد إخلاء لمسؤوليتنا
من ممارسات الخصوصية أو المحتوى الخاص بالمواقع المرفقة ضمن شبكتنا بما
يشمل الصور ومقاطع الفيديو. لأية استفسارات تتعلق باستخدام وإعادة استخدام
مصدر المعلومات هذه يرجى التواصل مع مزود المقال المذكور أعلاه.
Comments
No comment