الدكتورة:مها ياسر
بقلم| مها ياسر
في أزهى عصور الذكاء الصناعي التي يعيشها العالم الان في جميع مجالات الحياه ، أصبح استخدام (AI) في التوظيف من الأساليب الحديثة التي تعتمدها المؤسسات للعثور على المرشحين الأنسب لوظائفها. وتساعد هذه الأنظمة في تسريع عمليات التوظيف، وتحسين الدقة، وتقليل التحيز البشري. ولكن، كما هو الحال مع أي تقنية، لا تخلو هذه الأنظمة من تحديات ومخاطر أخلاقية منها :
مخاطر التحيز والتفرقة العنصرية أو الجندرية . فرغم أن الذكاء الاصطناعي يمكن أن يقلل من التحيز البشري، إلا أنه ليس محصناً ضده ، بل قد يزيدها و يعززها إذا لم يتم تصميمه بعناية. حيث أن البيانات التي يتم تغذيته بها قد تحتوي على انحيازات مجتمعية، مما يجعله يعيد إنتاج هذه التحيزات. على سبيل المثال، إذا كانت بيانات التوظيف السابقة متحيزة لصالح فئة معينة او جنس معين ، فقد يوصي النظام بمرشحين من هذه الفئة بصورة غير عادلة.
كذلك من المخاطر اللاخلاقية لتطبيق الذكاء الصناعي في التوظيف انتهاك الخصوصية، حيث تعتمد أنظمة التوظيف الذكية على جمع وتحليل بيانات ضخمة عن المتقدمين، بما في ذلك سيرتهم الذاتية.
من هنا تطل وتظهر تحديات و صعوبات التوظيف الذكي التي توجه المسؤولين عنها في إدارة الموارد البشرية بالمنظمات ، خاصة مع توقع تزايد استخدام هذه التقنية في عمليات التوظيف واتساع دورها في صنع القرارات الإدارية. وفيما يلي أبرز التحديات المستقبلية التي تتطلب حلولًا جديدة لضمان استخدام مسئول وأخلاقي منها :
- تطوير أنظمة ذاتية التكيف أخلاقيًا: وتعني تطوير أنظمة قادرة على التكيف مع تغيرات السوق والتطورات الاجتماعية، مع الالتزام بالمعايير الأخلاقية. و يعد تطوير أنظمة يمكنها تعلم وتعديل معاييرها الأخلاقية بحسب المتغيرات تحديًا تقنيًا وأخلاقيًا كبيرًا لم يتوصل اليه حتى الان.
- معضلة الأمان الوظيفي للموظفين الحاليين: أن الذكاء الاصطناعي يمكن أن يؤدي إلى تقليل الحاجة لبعض الأدوار التقليدية وتغيير طبيعة الوظائف. ولذلك، قد يتأثر الأمان الوظيفي للموظفين الحاليين، وقد يؤدي ذلك إلى مقاومة للتكنولوجيا. مما يجعل الشركات أما التزام بتتبنى سياسات لإعادة تدريب الموظفين الحاليين وتطويرهم لمواكبة التحولات.
- الضغط المجتمعي والمطالب القانونية: مؤخرا بدأت تزداد المطالب بوضع لوائح تنظيمية لاستخدام الذكاء الاصطناعي في التوظيف، لضمان الشفافية والمساءلة. إن القوانين المتعلقة بالخصوصية، مثل قانون GDPR في الاتحاد الأوروبي، تمثل خطوة في هذا الاتجاه، ولكن ما زالت هناك حاجة لمزيد من التشريعات التي تحكم استخدام الذكاء الاصطناعي بشكل دقيق.
- تحدي الأخلاقيات الثقافية والمحلية:استخدام الذكاء الاصطناعي في التوظيف قد يكون فيه صعوبة التوفيق مع بعض القيم الثقافية والمحلية. على سبيل المثال، قد تفضل بعض المجتمعات طرق تقييم تقليدية تعتمد على العلاقات الشخصية والسمعة، مما يجعل الذكاء الاصطناعي يبدو غير ملائم أو غير عادل في تلك السياقات.
في الختام ، يشكل الذكاء الاصطناعي في التوظيف فرصة ذهبية لتحقيق كفاءة أعلى ودقة أفضل، إلا أن التعامل معه دون مراعاة الأخلاقيات والحقوق الفردية قد يؤدي إلى مشكلات كبيرة. ومع تزايد الاعتماد على هذه التقنية، تزداد مسؤولية المؤسسات في الالتزام بمبادئ الشفافية والمساءلة والمساواة، لضمان مستقبل مستدام وتكنولوجي مسؤول في المنظمات.
بقلم: د. مها ياسر/ أستاذ مساعد إدارة الموارد البشرية الجامعة الكندية بالقاهرة - استشاري إدارة موارد بشرية