Btc roulette استخدام الذكاء الاصطناعي في التوظيف.. فضائح وقضايا أخلاقية

استخدام الذكاء الاصطناعي في التوظيف.. فضائح وقضايا أخلاقية

 تستخدم الشركات الخوارزميات لتحليل البيانات المتعلقة بالآلاف من المتقدمين للوظائف واختيار الأفضل منهم ، وباستخدام الذكاء الاصطناعي ، يمكن للموارد البشرية العمل بكفاءة أكبر بكثير من ذي قبل.

استخدام الذكاء الاصطناعي في التوظيف.. فضائح وقضايا أخلاقية

من المتوقع أن ينمو حجم سوق الذكاء الاصطناعي العالمي من 47.47 مليار دولار أمريكي في عام 2021 إلى 360.36 مليار دولار أمريكي في عام 2028 ، بمعدل نمو سنوي مركب يبلغ 33.6٪ ، وهذا النمو سيعني زيادة الاعتماد على الذكاء الاصطناعي في مختلف مجالات العمل ، بما في ذلك قطاع التوظيف والتدريب ، وفق ما أوردته "APNnews" مؤخراً.

الدور الرئيسي للذكاء الاصطناعي

خلص استطلاع حديث لخبراء وخبراء الموارد البشرية في اليابان إلى أنه ، كما ورد مؤخرًا من قبل منصة technology.org ، أجاب أكثر من 60٪ من المشاركين بأن لديهم رأيًا عاليًا بشأن استخدام الذكاء الاصطناعي في عملية التوظيف. لديك توقعات إيجابية .

سيلعب الذكاء الاصطناعي دورًا رئيسيًا في عملية التوظيف في المستقبل ، في الواقع ، بدأنا نرى هذا الدور الآن ، حيث تعتمد العديد من شركات التوظيف العالمية على استخدام الخوارزميات والذكاء الاصطناعي لاختيار الموظفين المناسبين.

ولكن هناك جانب مظلم آخر لهذه العملية ، حيث يمكن أن يؤدي هذا الاستخدام إلى معضلات أخلاقية وتهديدًا حقيقيًا لخصوصية المستخدم ، وقد يكون أحد أبرز الأمثلة على ذلك هو "فضيحة بيانات ريكو اليابانية" المشهورة عالميًا ، والتي تمثل الفضيحة التي يناقشها الباحثون: فوميكو كودو ، هيرومي آراي ، وأريسا إيما في ورقة بعنوان "القضايا الأخلاقية المتعلقة باستخدام الذكاء الاصطناعي في عملية التوظيف: فضيحة ريكونابي كنموذج".

فضيحة الخلفية

يتخرج حوالي 800000 طالب من الكليات والجامعات اليابانية كل عام ويدخلون إلى القوى العاملة باحثين عن وظائف تناسب مؤهلاتهم ، وهناك أكثر من 31000 شركة يابانية تتطلع إلى توظيف هؤلاء الخريجين أو اختيار الأشخاص المناسبين لبدء أعمالهم ، وكلهم (طلاب والشركات)) في Rickonabe ، أحد أكبر مواقع البحث عن الوظائف عبر الإنترنت في اليابان ، وهي شركة تابعة لـ Recruit Career للخريجين الجدد.

تعمل الشركة كوسيط بين الخريجين الباحثين عن وظائف والشركات التي تبحث عن المرشحين المناسبين للوظائف الشاغرة لديهم.

خلال هذه العملية ، تقوم الشركة بجمع وتحليل المعلومات الديموغرافية وملفات تعريف الارتباط لمقدمي الوظائف (الطلاب) التي تم جمعها من خلال خدمة مطابقة احتياجات العمل ، وتحسب احتمال أن يلبي كل خريج احتياجات الشركة ، باستخدام خوارزميات التحليل الخاصة به.

بدأت الفضيحة عندما سربت وسائل الإعلام اليابانية معلومات تفيد بأن الشركة باعت بيانات عن الطلاب الباحثين عن عمل إلى ما لا يقل عن 38 شركة يابانية ؛ من بينها تويوتا وميتسوبيشي وغيرها من الشركات المعروفة التي أحدثت ضجة في اليابان وقادت تحقيقًا من قبل طوكيو إدارة العمل.

وجد التحقيق أن شركة Recruit Career انتهكت قانون الأمن الوظيفي من خلال مشاركة المعلومات الشخصية مع الشركات العميلة ، مما أدى إلى فرض غرامات باهظة على الشركة.

قضية أخلاقية حقيقية

بالعودة إلى الورقة البحثية أعلاه ، ناقشت بالتفصيل القضايا الأخلاقية المرتبطة باستخدام الخوارزميات والذكاء الاصطناعي ، أو ما يسمى بتقنيات الموارد البشرية في عملية التوظيف ، والكم الهائل من المعلومات والبيانات التي تم جمعها ، سواء من المتقدمين للوظائف. أو أولئك الذين يتطلعون لمواصلة العمل. شركة تحتاج إلى المواهب.

تستخلص الورقة استنتاجات مهمة ، ولعل أبرزها أن "الدرجة التي يقبل بها الطالب أو يرفض عرض عمل تعتمد على المعلومات الشخصية ، والتي قد لا تكون في حد ذاتها هي الأهم ، ولكن طريقة معالجتها والطريقة تم تحليله "ستظهر مشكلات أخلاقية واجتماعية في الاعتماد المفرط على التكنولوجيا ، والتي يمكن أن تشكل تحديات للمطورين أو الشركات ، وكلما زادت دقة التحليل ، زادت احتمالية قبول النتائج كحقيقة ، مما يؤدي إلى زيادة خطر انتهاك القانون والمصالح المجتمعية لموضوع البيانات. "

وأوضح الباحثون أيضًا أنه "لا توجد توجيهات قانونية محددة ومبادئ توجيهية يمكن أن توازن بين دقة التحليل وحماية البيانات الشخصية ، لذا تصبح المناقشات الأخلاقية والاجتماعية في غاية الأهمية".

أهمية إنشاء نظام أخلاقي

وأكد الباحثون: "من أجل بناء توافق في الآراء بين جميع الأطراف المشاركة في عملية التوظيف ، يصبح من المهم وضع توجيهات وإرشادات قانونية واضحة لتنظيم العمل الفني لإدارات الموارد البشرية ، والتي يجب أن تكون متسقة مع الحوكمة العالمية للذكاء الاصطناعي. مبادئ ، في بالإضافة إلى الظروف الوطنية والعادات والتقاليد الاجتماعية ، وعلى الرغم من الحادث الذي وقع في اليابان ، اختتم الباحثون ورقتهم على أمل أن "هذه القضية والمناقشات المحيطة بها ستساعد في ترسيخ أخلاق واضحة في التعامل مع أنظمة الذكاء الاصطناعي ، لا سيما فيما يتعلق بـ طريقة التعامل مع البيانات الشخصية الحساسة. "

الكل في الكل ، الناس هم من يبيعون البيانات ، وليس الذكاء الاصطناعي نفسه ، وكان السؤال هو نفسه منذ زمن بعيد: ماذا نفعل نحن البشر ببيانات الثورة الصناعية الرابعة؟ هذا سؤال سيتم الرد عليه دائمًا.




وضع القراءة :
حجم الخط
+
16
-
تباعد السطور
+
2
-