فكرة رياضياتية جديدة تكبح تحيز الذكاء الاصطناعي في اتخاذ خيارات تجارية قد تكون مكلفة وغير أخلاقية

وجد باحثون في كلية العلوم التخصصي إمبريال في جامعة ووريك University of Warwick, Imperial College London, EPFL (Lausanne) and Sciteb Ltd وسيلة رياضية لمساعدة المنظمين في إدارة الأعمال ومراقبة انحياز أنظمة الذكاء الاصطناعي تجاه اتخاذ خيارات غير أخلاقية ومكلفة للغاية ومضرة تجاريًا، أي وكأنها العين الأخلاقية للذكاء الاصطناعي.

ينتشر الذكاء الاصطناعي بتزايد في المجالات التجارية، على سبيل المثال، استخدام الذكاء الاصطناعي لتحديد أسعار منتجات التأمين، ليتم بيعها إلى عميل معين. هناك أسباب مشروعة لتحديد أسعار مختلفة لأشخاص مختلفين، ولكن قد يكون من المفيد أيضًا «التلاعب» بالناحية النفسية لهم أو رغبتهم في التسوق.

يمتلك الذكاء الاصطناعي عددًا كبيرًا من الاستراتيجيات المحتملة للاختيار من بينها، ولكن بعضها يعتبر غير أخلاقي ولن يتكلف فقط تكلفة أخلاقية، ولكن أيضًا عقوبة اقتصادية كبيرة محتملة، حيث سيطبق أصحاب المصالح بعض العقوبات إذا وجدوا أن مثل هذه الاستراتيجية قد استخدمت بالفعل، وقد تفرض الهيئات التنظيمية غرامات كبيرة بمليارات الدولارات أو الجنيهات أو اليورو والعملاء أو الزبائن سيقاطعونك، أو كلاهما.

لذلك، في بيئة تتخذ فيها القرارات بتزايد دون تدخل بشري، هناك حافز قوي جدًا لمعرفة الظروف التي قد تعتمد فيها أنظمة الذكاء الاصطناعي استراتيجية غير أخلاقية، ولتقليل هذا الخطر أو للتخلص منه تمامًا إن أمكن.

اجتمع علماء الرياضيات والإحصائيون من جامعة ووريك لمساعدة رجال الأعمال والمنظمين على إنشاء «مبدأ تحسين غير الأخلاقي الجديد»، وتقديم صيغة بسيطة لتقدير تأثيره. حيث وضعوا التفاصيل الكاملة في ورقة بحثية تحمل عنوان «مبدأ التحسين غير الأخلاقي»، والذي نشر في المجلة العلمية المحكمة Royal Society Open Science، وذلك يوم الأربعاء 1 يوليو 2020.

إن مؤلفي الورقة الأربعة هم نيكولاس بيل Nicholas Beale من شركة Sciteb Ltd، وهيذر باتي Heather Battey من قسم الرياضيات في إمبريال كوليدج لندن Imperial College London، وأنتوني س. دافيسون Anthony C. Davison من معهد الرياضيات في لوزان مدرسة الفنون التطبيقية the Institute of Mathematics, Ecole Polytechnique Fédérale de Lausanne، والبروفيسور روبرت ماكاي Robert MacKay من معهد الرياضيات بجامعة ووريك.

قال البروفيسور روبرت ماكاي من معهد الرياضيات بجامعة ووريك: «يمكن استخدام مبدأ التحسين غير الأخلاقي الذي نقدمه لمساعدة المنظمين، وموظفي الامتثال وغيرهم، للعثور على إستراتيجيات إشكالية، قد تكون مخفية في مساحة استراتيجية كبيرة. يمكن أن نتوقع أن هذا التحسين سيختار بشكل غير متناسب العديد من الاستراتيجيات غير الأخلاقية، والتي يجب أن يوضح الاختبار أين من المحتمل أن تنشأ هكذا مشاكل، وبالتالي تقترح كيف يجب تعديل خوارزمية بحث الذكاء الاصطناعي لتجنبها في المستقبل».

ويكمل قائلًا: «يشير هذا المبدأ إلى أنه قد يكون من الضروري إعادة التفكير مرة أخرى في طريقة عمل الذكاء الاصطناعي في مساحات استراتيجية كبيرة جدًا، بحيث يتم رفض النتائج غير الأخلاقية صراحة، في عملية التحسين/التعلم».

المصادر: 1