القائمة الرئيسية

الصفحات

هل تقنية الذكاء الإصطناعي Artificial intelligence تُعتبر عنصرية ؟

هل تقنية الذكاء الإصطناعي Artificial intelligence تُعتبر عنصرية ؟




تخيل أنك تريد الدخول لمول معين من أجل التسوق، وهذا المول مؤمن رقميا بحيث أن أي شخص يتم الإشتباه فيه من خلال هذا الجهاز الرقمي، سيتم منع من الدخول للمول، فتخيل أن هذا الجهاز يقوم بمنعك بالدخول للمول ويتهمك باتهامات أنت أصلا لا علم لك بها مثل (أنك لص سابق أو لديك استعداد للتحرش بالآخرين أو لديك ميول عدوانية ...إلخ) كل هذا من خلال مسح لوجهك من طرف الجهاز وأنت على وشك الدخول للمول، وخاصة إذا كان لون بشرتك أسمر، فهل يا ترى هذه الأجهزة الرقمية تعتبر عنصرية ؟

على الرغم من التقدم الكبير في تقنية الذكاء الإصطناعي إلا أن هناك أسئلة عديدة تدور حول مسألة حيادية الذكاء الإصطناعي، وهل هو يتأثر بنا وبصفاتنا السلبية. العديد من التجارب والأبحاث أثبتت أن الروبوتات والخوارزميات والأجهزة الذكية تقوم بأخذ صفات سلبية كثيرة من البشر مثل صفة التحيز وعدم الحيادية في بعض الأحيان وعدم النزاهة، وأيضا تصل للعنصرية وازدراء المرأة وأصحاب البشرة السمراء. فمثلا على مستوى "ترجمة جوجل"  Google Translate سنجد هناك تحيز واضح للترجمات نحو الذكورية وتمييز الرجل عن المرأة في العديد من الترجمات، ولو قمنا بالتدقيق قليلا فسنجد أن "ترجمة جوجل" تستخدم خوارزمية تعتمد أساسا على استخداماتنا لجمل معينة في اللغات المختلفة، لهذا السبب فهي تتعلم من البشر هذا التحيز والعنصرية.




كمثال آخر، فالروبوت الإفتراضي الذي أنشأته شركة مايكروسوفت وقامت بوضعه على موقع تويتر ليقوم بالرد على الرسائل وأسئلة المستخدمين يقوم بعمل دردشة بينه بين المستخدمين. فبعد اشتغال هذا الروبوت في ظرف 24 ساعة بدأ في تعلم الشتائم والعبارات المسيئة والمحرضة، وتمجيد النازية وهيتلر وازدراء السود والمرأة بشكل عام. طبعا مايكروسوفت قامت باغلاق هذا الحساب وقامت بإلغاء خدمة الروبوت الإفتراضي. لكن هذا يقودنا لأبحاث حديثة كثيرة تقوم أن أي برنامج ذكاء إصطناعي حالي معرض لتبني الأفكار المتطرفة وتعلمها من سلوك البشر مثل العنصرية وازدراء الجنس  الآخر.

الخوارزميات وأجهزة الذكاء الإصطناعي تعمل مثل البشر، فالبشر يتعلمون العنصرية من خلال احتكاكهم فيما بينهم طوال الوقت، أما أجهزة الذكاء الإصطناعي تتعلم من خلال العمليات الكبيرة التي تقوم بها ويكون البشر وسطاء في هذه العمليات، لكن مشكلتنا الأكبر أن هذه الأجهزة الذكية ليست ذكية. فنحن البشر لدينا إدراكات لم تصلها بعد الأجهزة الذكية كذلك السياق العام والخاص لسلوكنا لا تستطيع هذه الأجهزة فهمه على الأقل في الوقت الحالي.

في المستقبل القريب ستكون هذه الأجهزة الذكية ستكون مسؤولة عن توظيف الناس وعمل مقابلات شخصية وفحص الحسابات الشخصية على مواقع التواصل الإجتماعي وأخذ صور لهم على فترات معينة، وفحص فيديو المقابلة الشخصية وتعبيرات الوجع والعديد من الأمور الأخرى.




شركتي آمازون ومايكروسوفت يقومون بعمل تجارب في هذا الموضوع من سنة 2014. آمازون قامت عمل قسم خاص مسؤول عن تطوير خوارزميات ذكية مهمتها أنها تقوم بدراسة السيرة الذاتية للأشخاص الذين يقدمون لوظائف وتتخذ قرار بقبولهم في الوظيفة من عدمه. هذه الخوارزميات فشلت في مسألة الإنحياز لفئة معينة دون الأخرى، وظهر هذا الإنحياز في قبول الموظفون الذكور بنسب من الإناث على الرغم أنه لا يوجد أمر برمجي في هذه الخوارزميات يقوم بتفضيل الرجال على النساء. جامعة MIT قامت بعمل دراسة كبيرة ظهرت من ثلاث شهور على برنامج Rekognition الخاص بشركة آمازون ودورة هو تحليل الوجوه والتعرف عليها.

وتمت مقارنة هذا البرنامج ببرنامج آخر من إنشاء شركة مايكروسوفت، والمفاجأة أن هذه النتائج أظهرت إخفاقات كبيرة للذكاء الإصطناعي في التعرف على الوجوه والتي تصب في خانة عدم الحيادية والتعصب لفئة دون الأخرى، أي بنسبة %19 من الحالات قامت الأجهزة بوصف الرجل بأنه امرأة، والأدهى من هذه النسبة زادت لـ %31 عند صور النساء السُّمر. في حين أن نسبة الخطأ عند خوارزميات شركة مايكروسوفت كانت %1.5 وهذا نجاح ساحق لشركة مايكروسوفت على آمازون في هذا المجال وكانت رسالة أنه يمكن تطوير خوارزميات لا تتعامل بطريقة عنصرية مثل البشر.

رابط مقالة الدراسة:  MIT Researcher Exposing Bias in Facial Recognition Tech Triggers Amazon’s Wrath




تطوير هذه الخوارزميات والخاصة بالتعرف على الأشخاص من خلال تحليل الوجه ستعمل طفرة كبيرة في مجال التوظيف والتعرف على المجرمين والهاربين في أي مكان يمكنك الإختباء والمدارات عن الأنظار، والمشكلة القادمة هي قدرة الشركات على صناعة برمجيات يمكنها معالجة كم كبير جدا من البيانات والصور والفيديوهات، وتقوم بتحليل بشكل سريع كل هذه العمليات وتقوم بتقديم لنا تقارير في منتهى السرعة

هل اعجبك الموضوع :

تعليقات