للأسف؛ الذكاء الاصطناعي عنصريّ!

عندما أطلقت شركة مايكروسوفت برنامج الذكاء الاصطناعي “Chatbot” والمسمى “Tay” في آذار الماضي، أخذت الأمور منعطفاً كارثياً خلال 24 ساعة، حيث أرسل البرنامج رسائل عنصريةً لشخصٍ يؤمن بالنازية والتي استقطب معظمها من خلال لغة مستخدمي تويتر الذين تفاعلوا معها.

لسوء الحظ، وجد الباحثون أن “Twitter trolls” – الرسائل التي تترك على الإنترنت لإزعاج الآخرين- ليست الطريقة الوحيدة التي تُمكِّن أجهزة الذكاء الاصطناعي من تعلم الانحياز العنصري. في الحقيقة؛ يمكن لها أيضاً تعلم هذه اللغة من الإنسان، ومن المحتمل أن تنحاز بنفس الطريقة التي ينحاز بها البشر وذلك حسب تفسير العلماء.

حيث أجرى الباحثون تجربةً على نظام لغة الآلة “machine –learning system” المسمى اختصاراً “GloVe”، ووُجد أن كل أنواع التحيز البشري ظهرت على أنظمة الذكاء الااصطناعي.

“إنه من المدهش رؤية كل النتائج التي رُسخت في نماذج أجهزة الذكاء الااصطناعي”، هذا ما قالته ايلن كاليسكان _ باحثةٌ في علم الحاسوب في جامعة برينستون.

وحتى الأجهزة التي من المفترض أنها دُرّبت على أن تكون محايدة، مثل نصوص ويكيبيديا ومقالات الأخبار، عكست أيضاً بعض الانحيازات البشرية.

بناء الانحيازات:

يُعتبر (GloVe) أداةً مستخدمةً لااستخلاص النصوص المرتبطة بأي تحيزٍ أو تعصب.

عرف علماء النفس منذ فترةٍ طويلةٍ أن الدماغ البشري يبني ارتباطاتٍ بين الكلمات على أساس المعاني الكامنة وراءها.

هناك اختبارٌ يسمى فحص الارتباط الضمني (Implicit Association Test) حيث يستخدم ردود الفعل لإظهار هذه الارتباطات.

وممالا يثير الدهشة، فإن الأزهار مرتبطةٌ بالمفاهيم الإيجابية بينما الأسلحة مرتبطةٌ أكثر بالمفاهيم السلبية.

يُستخدم (IAT) لكشف الارتباطات اللاواعية التي يبنيها الناس حول الحياة الاجتماعية وأيضاً السكانية.

حيث أن بعض الفحوصات التي أُجريت والمتوفرة في موقع (project implicit) وجدت أن الناس يربطون بدون وعيٍ الأسلحة بالأمريكان السود بينما الأشياء غير المؤذية بالأمريكان البيض.

هناك نقاشاتٌ حول ما تعنيه هذه النتائج، هل يبني الناس ارتباطاتٍ بسبب وجود عُقدٍ شخصيةٍ اجتماعيةٍ متأصلةٍ غير واعين لها؟ أم أنهم يمتصون هذه الارتباطات من لغتهم التي تضع كلماتٍ سلبيةً على الأقليات العرقية وكبار السن وغيرهم من الفئات المهمشة؟!

القوالب والصور النمطية الرقمية:

طوّرت كاليسكان وزملاؤها (IAT) للحواسيب، والذي أُطلق عليه WEAT اختصاراً لـ
‏(Word Embedding Association Test). يقيس هذا الاختبار مدى قوة الارتباطات بين الكلمات كما عُرضت على (GloVe).

لكل ارتباطٍ وصورةٍ نمطيةٍ تم اختبارها، تم التوصل إلى نفس النتائج التي وصل لها (IAT).

حيث تمكنت لغة الآلة من استنساخ الارتباطات البشرية بين كلمة الأزهار والمعاني اللطيفة، الحشرات والمعاني غير اللطيفة، الآلات الموسيقية والمعاني اللطيفة، الأسلحة والمعاني غير اللطيفة.

وفي نتيجةٍ أكثر كارثيةً فقد كانت الأسماء الأوروبية الأمريكية لطيفةً أكثر من الأسماء الإفريقية الأمريكية، كما ارتبط أن أسماء الرجال ارتبطت أكثر بكلمات المهن.

بينما أسماء النساء ارتبطت بأسماء العائلة، وارتبط الرجال أكثر بالرياضيات والعلوم بينما ارتبطت النساء بالأدب والفنون.

وكانت الأسماء المرتبطة بكبار السن غير لطيفةٍ مقارنةً بفئة الشباب.

الطريقة الثانية كانت مشابهةً للأولى، فقد وجد الباحثون أيضاً أن لغة الآلة تمكنت من عرض الحقائق عن العالم بشكلٍ دقيقٍ من حيث دلالات الألفاظ.

فعند مقارنة نتائج (GloVe) مع البيانات الحقيقية لمكتب الإحصاءات العمالية الأمريكية حول نسبة النساء في المهن، وجدت كاليسكان ترابط 90٪ بين المهن التي ينظر إليها (GloVe) على أنها “نسوية” والنسبة الفعلية للنساء في تلك المهن.

بمعنىً آخر، البرامج المحوسبة التي تتعلم من لغة الإنسان لا تعطي تمثيلاً دقيقاً عن العالم والثقافة.

تقولكاليسكان: “حتى إذا كانت تلك الثقافة (مثل الصور النمطية والتعصب) إشكالية، حيث يعتبر الذكاء الااصطناعي أيضاً سيئاً في فهمه للسياق مقارنةً مع الإنسان الذي يدركه بسهولة. فعلى سبيل المثال؛ مقالٌ عن مارتن لوثر كينغ الابن الذي سُجن بسبب احتجاجات الحقوق المدنية في برمنغهام-ألاباما في عام 1963، فمن المرجح أن يُربط الكثير من الكلمات السلبية مع الأمريكيين من أصلٍ إفريقي، بينما قد يفسرها الإنسان باعتبارها واحدةً من الاحتجاجات الصالحة من قِبل بطلٍ أمريكي. لكن البرنامج قد يراها مجرد رقمٍ آخر في تصنيف {السجن = أسود}”.

وأضافت: “نحن لا نعتقد بالضرورة أن إزالة التحيز ستحل هذه المشاكل، لأنها ربما ستلغي الوصف الدقيق للعالم”.

الذكاء الاصطناعي غير المتحيز:

ليست هنالك طرقٌ سهلةٌ لحل هذه المشاكل، فقد يستطيع المبرمج في بعض الحالات تصميم البرنامج على أن يُهمِل أوتوماتيكياً بعض الصور النمطية والمتحيزة، ولكن في الحالات البسيطة يحتاج الناس إدراك أن الآلة لا تقصد شيئاً سيئاً.

فالحلول قد تختلف استناداً على هدف بناء البشر للذكاء الاصطناعي ‘للبحث أم لاتخاذ القرارات أم لشيءٍ آخر’.

إن المواقف الضمنية لا ترتبط بدقةٍ مع المواقف الصريحة والواضحة حول الفئات الاجتماعية، ناقش علماء النفس سبب ذلك: هل ما يزال الناس يلتزمون الصمت حول تعصبهم فقط من أجل تجنب العار؟ هل (IAT) لم يقس التعصب جيداً؟ ولكن يبدو أن الناس على الأقل لديهم القدرة على التفكير في الصواب والخطأ مع وجود الارتباطات الانحيازية، حيث تعتقد كاليسكان وزملاؤها بأن البشر يحتاجون إلى المشاركة، وتحتاج البرامج لأن تُبَرمَج بطريقةٍ شفافة، حتى يتمكن الناس من إصدار أحكامٍ أو تقييمٍ مُنصِفٍ وعادلٍ حول نزاهة الآلات.

المصادر: 1