لماذا علينا أن لا نثق بالذكاء الإصطناعي؟

بات مصطلح “الذكاء الاصطناعي” كثير الاستخدام هذه الأيام، لدرجة أن البعض أصبح يتخوف من أنه قد يعني سيطرة الآلات واضمحلال دور البشر، رغم أن الواقع ما يزال بعيدا جدا عن الاقتراب من هذا التصور، فما الذكاء الاصطناعي؟ وما أبرز مظاهره؟ وإلى أين وصل تطوره؟

يعرف الذكاء الاصطناعي بأنه الذكاء الذي تبديه الآلات والبرامج بما يحاكي القدرات الذهنية البشرية وأنماط عملها، مثل القدرة على التعلم والاستنتاج ورد الفعل على أوضاع لم تبرمج في الآلة، كما أنه اسم لحقل أكاديمي يعنى بكيفية صنع حواسيب وبرامج قادرة على اتخاذ سلوك ذكي.

ويعرف كبار الباحثين الذكاء الاصطناعي بأنه “دراسة وتصميم أنظمة ذكية تستوعب بيئتها وتتخذ إجراءات تزيد من فرص نجاحها”، في حين يعرفه جون مكارثي -الذي وضع هذا المصطلح سنة 1955- بأنه “علم وهندسة صنع آلات ذكية”.

وخلال السنوات الأخيرة، قفز التطور في تقنية الذكاء الاصطناعي قفزات كبيرة، وتعد تقنية “التعلم العميق” أبرز مظاهره، وهي ترتكز على تطوير شبكات عصبية صناعية تحاكي في طريقة عملها أسلوب الدماغ البشري، أي أنها قادرة على التجريب والتعلم وتطوير نفسها ذاتيا دون تدخل الإنسان.

وأثبتت تقنية “التعلم العميق” قدرتها على التعرف على الصور وفهم الكلام والترجمة من لغة إلى أخرى، وغير ذلك من القدرات التي أغرت الشركات الأميركية في وادي السليكون، وتحديدا فيسبوك وغوغل، على الاستثمار وتكثيف الأبحاث فيها، متجاهلين تحذيرات من أن تطور الذكاء الاصطناعي قد يهدد البشرية.

مخاوف:

ففي ديسمبر/كانون الأول 2014 أشار عالم الفيزياء الشهير ستيفن هوكينغ إلى أن تطوير ذكاء اصطناعي كامل قد يمهد لفناء الجنس البشري، محذرا من قدرة الآلات على إعادة تصميم نفسها ذاتيا.

كما أعلن المؤسس والرئيس السابق لشركة مايكروسوفت بيل غيتس العام الماضي عن رغبته في بقاء الروبوتات غبية إلى حد ما، وقال “أنا في معسكر من يشعر بالقلق إزاء الذكاء الخارق”.

وفي أكتوبر/تشرين الأول 2015 وصف المخترع والمستثمر الأميركي إلون موسك الذكاء الاصطناعي بأنه من أعظم المخاطر التي تهدد الوجود البشري، كما شبه تطوير الآلات الذكية “باستحضار الشيطان”.

ويستثمر موسك (مؤسس مشروع صواريخ الفضاء التجارية سبيس إكس، وسيارات تسلا الكهربائية) وغيره ملايين الدولارات في أبحاث لاكتشاف المخاطر المحتملة للذكاء الاصطناعي وكيفية التعامل معها.

تطور بطيء:

في المقابل، يرى بعض الخبراء أن تقنيات الذكاء الاصطناعي لن تتسبب في أي مخاطر على الجنس البشري، ومن هؤلاء أستاذ علم الحاسوب بجامعة مونتريال الكندي يوشوا بينغيو، الذي يرى أنه لا ينبغي القلق من التقنيات الذكية، فهي تحتاج لسنوات كثيرة من التطور البطيء والتدريجي قبل أن تصل إلى المدى الذي يخشاه المحللون، لأنها تستند في تطورها إلى علوم وأفكار ما تزال في بداياتها الأولى حاليا.

ويؤكد بينغيو أن الوصول إلى الذكاء الاصطناعي بشكله المنتظر لن يكون مفاجئا، أي ليس كما يشبهه البعض باكتشاف وصفة سحرية خارقة على حد تعبيره، فما زال إنتاج أنظمة الذكاء الاصطناعي المتكاملة بحاجة إلى تطور علوم حالية وابتكار علوم جديدة، أي -بتعبير آخر- لن يخرج أحد العلماء بتقنية ذكية من شأنها تغيير العالم بين ليلة وضحاها، كما في أفلام الخيال العلمي.

قفزات مستقبلية:

من ناحية أخرى، فإن تقنيات الذكاء الاصطناعي تتطور بسرعة كبيرة، وتصبح أكثر تعقيدا كل عام، ويرى الباحث المتخصص في مجال الذكاء الاصطناعي لدى شركة غوغل وجامعة تورنتو جيوفري هينتون أن الآلات ستوازي الإنسان ذكاءً خلال خمسة أعوام من الآن.

ويقف هينتون خلف تطوير برنامج غوغل الذكي “ألفاغو” الذي هزم بطل العالم في لعبة “غو”، لكنه لا يرى أن علينا خشية الذكاء الاصطناعي، لأن أي تقنية جديدة قد تكون مثيرة للخوف في حال أسيء استخدامها، حسب قوله، وأن المسالة تتعلق بكيفية تعاملنا مع التكنولوجيا بشكل لا يجعل منها مؤذية للبشر.

وتعدّ شركتا غوغل وفيسبوك رائدتين في مجال تقنيات الذكاء الاصطناعي؛ فهذه التقنية تساعد غوغل على تطوير خدماتها بشكل كبير، فمثلا -وبفضل هذه التقنية- يمكن لهاتف أندرويد فهم أوامر مستخدمه، والترجمة الفورية للعبارات المكتوبة بلغة أجنبية على اللافتات في الطرقات، كما تسهم التقنية في دعم محرك البحث غوغل، الذي يعدّ أبرز منتجات الشركة.

أما بالنسبة لفيسبوك، فيسمح التعلم العميق للشبكة الاجتماعية بالتعرف على الوجوه في الصور، واختيار المحتوى المناسب وعرضه للمستخدم على صفحة آخر الأخبار، ودعم المساعد الشخصي الرقمي التابع لفيسبوك (إم)، وغير ذلك من الوظائف.

ويرى المدير العام لشركة غوغل سوندار بيشاي أن عصر الهواتف الذكية اقترب من نهايته ليُستبدل بالذكاء الاصطناعي الذي يتيح الوصول الفوري إلى المعلومات الضرورية، كما يرى مؤسس فيسبوك ورئيسها التنفيذي مارك زوكربيرغ أن الأجهزة ذات الذكاء الاصطناعي ستستطيع يوما ما أن تتمتع بالحواس الإنسانية مثل الرؤية والشعور أكثر من البشر أنفسهم.

تقنيات الذكاء الاصطناعي: الجوانب الأخلاقية أخطر تحديات المستقبل

باتت تقنيات “الذكاء الاصطناعي” تؤثر على حياتنا حالياً على نحوٍ أكثر أهمية من أي وقت مضى؛ وربما تتدخل فيها أيضا، ولذا يرى فريقٌ من الخبراء أن الوقت قد حان لأن يتدخل مفكرو علم الأخلاق وفلاسفته لضبط هذا الأمر.

أينما تلتفت ستجد تقنيات “الذكاء الاصطناعي”؛ التي وُجِدت بيننا لتبقى، وباتت تؤثر على غالبية جوانب حياتنا بشكل أو بآخر؛ بدءاً من اختيار أي كتب أو بطاقات سفر سنشتريها عبر شبكة الإنترنت، مروراً بتحديد ما إذا كانت طلبات التوظيف التي قدمها أيٌ منّا قد لاقت النجاح أم لا، وصولاً إلى تحديد ما إذا كان المرء مُستَحِقاً لقرضٍ مصرفي من عدمه، أو حتى طبيعة العلاج الذي يتعين الخضوع إليه من جانب مريضٍ ابْتُلي بالسرطان.

كل ما سبق ذكره وغيره كثير صار قابلاً لأن يُحدد الآن آلياً إلى حدٍ كبير عن طريق أنظمة برمجيات معقدة. فتقنيات “الذكاء الاصطناعي” قطعت خلال السنوات القليلة الماضية أشواطاً هائلة بشكل لافت للنظر. كما أن هذه التقنيات تنطوي على إمكانيات من شأنها جعل حياتنا أفضل، في نواحٍ كثيرة.

وقد بدا صعود نجم “الذكاء الاصطناعي” خلال الأعوام الأخيرة أمراً حتمياً. فقد خُصصت أموالٌ طائلة للشركات الناشئة العاملة في هذا المجال. كما أنشأت الكثير من شركات التكنولوجيا القائمة بالفعل، بما فيها مؤسساتٌ عملاقة مثل “أمازون” و”فيسبوك” و”مايكروسوفت”، مختبرات بحثية جديدة لتطوير تقنياتها على هذا الصعيد.

وفي ظل كل ذلك، لم يعد من قبيل المبالغة المفرطة القول إن البرمجيات الآن باتت تعني “الذكاء الاصطناعي” وليس سواه.

ويتوقع البعض أن تؤدي هذه التقنيات إلى حدوث تغيرات هائلة مماثلة في حجمها أو أكثر ضخامة، من تلك التي أحدثها ظهور وانتشار شبكة الإنترنت.

وفي هذا السياق؛ سألنا فريقاً من خبراء التكنولوجيا عن طبيعة ما يخفيه هذا العالم سريع التغير الذي يعج بالآلات الرائعة، في جعبته من مفاجآت لبني البشر. اللافت أن كل إجاباتهم تقريباً تمحورت حول الجانب القيمي والأخلاقي من هذا الأمر.

من بين هؤلاء، بيتر نورفيغ مدير الأبحاث لدى شركة “غوغل”، وأحد رواد ما يُعرف بـ”التعلم الآلي”، وهو فرعٌ لـ”الذكاء الاصطناعي” يعتمد على البيانات، ويقف وراء الكثير من النجاحات التي حققتها تلك التقنيات مؤخراً.

بالنسبة لـ”نورفيغ”، يتمثل الجانب المهم فيما يتعلق بمسألة “الذكاء الاصطناعي” في تحديد كيفية ضمان أن تعود هذه الأنظمة المعلوماتية الحديثة بالنفع على المجتمع ككل، دون أن تقتصر فوائدها على من يتحكمون فيها فحسب.

ويوضح الرجل بالقول: “برهنت تقنيات الذكاء الاصطناعي على كونها شديدة الفعالية على صعيد أداء مهام عملية؛ من إضافة تعليقات ومؤثرات إلى الصور، مروراً بفهم الحديث (المنطوق) وكتابة النصوص بلغة مفهومة وطبيعية على غرار ما يكتبه البشر (وليست كلمات مرصوصة إلى جانب بعضها البعض) وصولاً إلى المساعدة في التعرف على الأمراض. يتمثل التحدي الآن في التأكد من أن الجميع ينتفع من هذه التكنولوجيا”.

لكن المشكلة الكبرى هنا تتمثل في أن تعقيد هذه البرمجيات، غالباً ما يعني استحالة التعرف على السبب الدقيق الذي يجعل نظاماً من أنظمة “الذكاء الاصطناعي” يؤدي الدور الذي يقوم به تحديداً.

فلم يعد بوسع المرء أن يميط اللثام عن تفاصيل هذه المنظومات وأخذ نظرة عن كثب لمكوناتها وللأجزاء التي تتحكم فيها وهي قيد التشغيل، وذلك في ضوء الطريقة التي تعمل بها في الوقت الحالي، وتعتمد فيها على تلك التقنية الناجحة بشكل هائل والمعروفة باسم “التعلم الآلي”.

لذا نتقبل الأمر كما هو، ونبدي ثقتنا فيه. ليتمثل التحدي الذي نواجهه في هذه الحالة في استنباط طرق جديدة لمراقبة أو فحص ومراجعة المجالات الكثيرة للغاية، التي يضطلع “الذكاء الاصطناعي” فيها الآن بمثل هذا الدور الكبير.

وبنظر جوناثان زيتراين، أستاذ التشريعات القانونية المتعلقة بشبكة الانترنت في كلية الحقوق بجامعة هارفارد الأمريكية؛ ثمة خطرٌ ناجمٌ عن أن التزايد المطرد في تعقيد الأنظمة الحاسوبية قد يحول دون إمكانية إخضاع هذه الأنظمة لعمليات التدقيق الشديدة التي نحتاج إليها في هذا الصدد.

ويقول زيتراين: “أشعر بالقلق حيال تضاؤل استقلالية الإنسان، في ظل ما تتسم به أنظمتنا – مُدعومةً بالتكنولوجيا – من تعقيد متزايد وترابط على نحو محكم”.

ويضيف بالقول إن إقدامنا على تطوير نظم “الذكاء الاصطناعي” مُتجاهلين ما ينطوي عليه الأمر من مخاطر في بعض الأحيان، ربما سيحدونا للشعور بالندم على الطريقة التي قد يتطور بها نظامٌ ما من هذه الأنظمة، وكذلك حيال عدم إفساح المجال بشكل واضح لكي يُوضع البعد الأخلاقي موضع الاعتبار في هذا الصدد.

ويساور مبعث القلق هذا أعضاء آخرين في فريق الخبراء الذي توجهنا له طلباً للمشورة. من بين هؤلاء؛ ميسي كمينغس مديرة أحد مختبرات جامعة ديوك بولاية نورث كارولاينا الأمريكية، والتي كانت من بين النسوة الأوُلْ اللواتي قُدنّ طائراتٍ مقاتلة تابعة للأسطول الأمريكي، وهي الآن خبيرة في الطائرات بدون طيار.

وتعبر كمينغس عن مخاوفها في هذا الشأن بطرح هذا السؤال: “كيف سيمكننا أن نُصادق على كون هذه المنظومات آمنة؟”.

على أي حال، تحتاج تقنيات “الذكاء الاصطناعي” إلى إشراف ورقابة، ولكن لم تتضح بعد الطريقة المثلى لتحقيق ذلك على أرض الواقع.

وتقول كمينغس في هذا الصدد: “ليس لدينا في الوقت الحاضر أي نهجٍ متفقٍ عليه. دون وجود معيارٍ صناعيٍ لاختبار مثل هذه الأنظمة، سيكون من العسير تطبيق تلك التقنيات على نطاق واسع”.

لكن في عالمٍ سريع التغير والحركة كذاك الذي نعيش فيه؛ غالباً ما تجد الجهات المُوكل إليها القيام بأدوار تنظيمية أنها مثقلةٌ بالأعباء والواجبات.

وفي العديد من المجالات الحيوية، مثل النظام القضائي المختص بالقضايا الجنائية ونظام الرعاية الصحية، تبحث المؤسسات والشركات العاملة في هذين المجالين مدى فعالية الاستفادة من تقنيات “الذكاء الاصطناعي” لاتخاذ قرارات تتعلق بالإفراج المشروط عن بعض المحتجزين، أو تشخيص الأمراض.

لكن إلقاء هذه المهمة على كاهل بعض الآلات، يعني أننا نجازف بفقدان السيطرة. وفي هذه الحالة، من سيكون بمقدوره القول إن هذا النظام أو ذاك يتخذ القرار الصائب في القضايا المنوط به التعامل معها؟

تقول دانا بويد، وهي باحثة رئيسية في وحدة الأبحاث التابعة لشركة “مايكروسوفت”، إن هناك تساؤلات جدية بشأن القيم التي تتضمنها مثل هذه النظم التكنولوجية، وكذلك حول هوية المسؤول عنها في نهاية المطاف.

وتضيف بويد: “هناك رغبة متزايدة من قبل الجهات المُنَظِمة والمجتمع المدني والمُنظرين الاجتماعيين لرؤية هذه التقنيات وقد باتت تتسم بالعدالة وبالطابعيّن القيمي والأخلاقي، لكن هذه المفاهيم تتصف بالغموض في أفضل الأحوال”.

وتشكل أماكن العمل إحدى المناطق التي تعج بالاعتبارات القيمية والأخلاقية المتعلقة باستخدام تقنيات “الذكاء الاصطناعي”.

فالاستعانة بتلك التقنيات تسمح لـ”الروبوتات” بأداء وظائف أكثر تعقيداً، وبتسريح عددٍ أكبر من القوى العاملة البشرية. مثالٌ على ذلك، ما أعلنته مجموعة “فوكس كون تكنولوجي” الصينية – التي تزود شركتيّ “آبل” و”سامسونغ” ببعض المستلزمات – من أنها تسعى لأن تحل “الروبوتات” محل 60 ألف عامل تقريبا في مصانعها.

أما شركة “فورد” فقد وضعت تلك “الروبوتات” جنباً إلى جنب مع عمالها من البشر، في مصنعها بمدينة كولونيا الألمانية.

ويرى البعض أن شعور العمال بأن تلك الآلات تزيحهم من مواقعهم قد يُخلّف آثاراً غير مباشرة على صحتهم العقلية والنفسية.

أكثر من ذلك، فإنه إذا كان تزايد التوجه نحو الاستعانة بالآلات على حساب العمالة البشرية يُخلّف تأثيراً كبيراً على أمورٍ مثل التوظيف والتشغيل؛ فإنه قد يترك كذلك تأثيرات غير مباشرة على الصحة العقلية والنفسية للبشر.

وفي هذا السياق، يقول إيزيكيل إيمانويل، المتخصص في أخلاقيات علم الأحياء، والذي كان مستشارا في مجال الرعاية الصحية للرئيس الأمريكي السابق باراك أوباما – إن النظر “إلى ما يعطي للبشر معنى في حياتهم، (يُظهر أن ذلك يتمثل) في ثلاثة أشياء: علاقاتٌ جادة وذات مغزى، واهتماماتٌ يتحمسون لها، وعملٌ هادف وذو معنى”.

ويضيف إيمانويل: “يعد العمل الجاد ذو المغزى عنصرا مهما للغاية من (مكونات) هوية المرء”. ويشير إلى أن المناطق التي فقد فيها العمال وظائفهم بسبب إغلاق المصانع قد تواجه تزايد خطر معدلات الانتحار، ونسبة تعاطي المخدرات، والإصابة بالاكتئاب.

و تتمثل نتيجة ذلك في إمكانية أن نرى مطالبات بأن يضطلع المتخصصون في مجال القيم والأخلاق بدورٍ أكبر.

وهنا تقول كيت دارلينغ، المتخصصة في القانون والقيم والأخلاق بمعهد ماساتشوستس للتقنية: “تتبع الشركات المحفزات الموجودة في الأسواق التي تعمل بها. وهو ليس بالأمر السيئ، ولكن ليس بوسعنا الاعتماد على أن هذه الشركات ستتصرف على نحوٍ أخلاقي”، دون أن يعود ذلك عليها بمنفعة ما.

وتشدد دارلينغ على أهمية بلورة قواعد مُنَظِمة في هذا الصدد، على غرار ما هو معمولٌ به لحماية الخصوصية، أو ما يُتبع في أي مجال “يشهد استخدام تكنولوجيا جديدة، وقد فهمنا كيفية التعامل مع هذا الأمر”.

وتشير دارلينغ إلى أن الكثير من الشركات الكبرى مثل غوغل؛ استحدثت بالفعل مجالس معنية ببحث الجوانب الأخلاقية المرتبطة بتطويرها لتقنيات “الذكاء الاصطناعي” وباستخدامها ونشرها لهذه التقنيات.

وهناك من يذهب للدعوة لأن يكون ذلك أكثر شيوعا وانتشارا. أما دارلينغ فتقول : “لا نريد خنق الابتكار، ولكن ربما نصل إلى مرحلة قد نرغب فيها في بلورة بعض البنى” التنظيمية في هذا الشأن.

ولا تزال التفاصيل شحيحة فيما يتعلق بهوية أعضاء مجلس القيم والأخلاقيات التابع لـ”غوغل” والدور الفعلي المنوط بذلك المجلس.

وفي سبتمبر/أيلول الماضي، أنشأت شركات “فيسبوك” و”غوغل” و”أمازون” اتحاد شركات (كونسورتيوم) بهدف إيجاد حلولٍ للمشكلات وسبل لمواجهة المخاطر المتعددة والمتنوعة التي يطرحها استخدام تقنيات “الذكاء الاصطناعي” فيما يتعلق بالسلامة والخصوصية.
كما تم تأسيس شركة بحثية غير هادفة للربح، تحمل اسم “أوبن آيه إل” بهدف تطوير تقنيات “ذكاء اصطناعي” مفتوحة المصدر والترويج لها، من أجل تحقيق صالح الجميع.

ويقول نورفيغ المسؤول في “غوغل” إن من الأهمية بمكان أن “يتم إجراء أبحاث بشأن التعلم الآلي بشكل علني وشفاف، وأن يجري توسيع رقعة انتشارها من خلال منشورات علنية وشفرة مفتوحة المصدر، وهو ما سيجعل بمقدورنا جميعاً تقاسم” المنافع الناجمة عن ذلك.

فمن المهم تشكيل فرق ولجان تضم خبراء في علم الأخلاق وفي التكنولوجيا بجانب مسؤولين تنفيذيين في الشركات العاملة في هذا المجالات؛ وذلك إذا ما كنا بصدد وضع معايير مهنية وصناعية وأخلاقية، فيما يتعلق باستخدام تقنيات “الذكاء الاصطناعي” وبلورة فهمٍ كامل بشأن ما هو موضوعٌ على المحك في هذا الصدد.

فالأمر يرتبط هنا بتسخير هذه التقنيات لتحسين أداء البشر، في أمورٍ يبذلون فيها بالفعل قصارى جهودهم.

في نهاية المطاف يقول زيتراين: “عملنا لا ينصب على القلقٍ إزاء قدرة إنسانٍ آلي من إحدى قصص الخيال العلمي على السيطرة، وإنما يرتبط أكثر بأن نرى كيف يمكن استخدام التكنولوجيا لتعزيز التفكير والتأمل البشريين، وعملية صنع القرار التي يقوم بها بني البشر”، لا أن تشكل تلك الأجهزة بديلاً للبشر في هذا الأمر بالكامل.

الاستخبارات الأمريكية: الذكاء الصناعي الصيني يهدد التوازن العسكري العالمي

حذرت مؤسسة أمريكية للأبحاث من أن تكنولوجيا الذكاء الصناعي الصينية وتطويرها قد تشكل تهديدا للتوازن الاقتصادي والعسكري للقوى العالمية.

واستشهد تقرير المؤسسة بأمثلة على كيفية استخدام الذكاء الصناعي في الأغراض العسكرية.

وكانت الصين قد أعلنت في يوليو/تموز الماضي عن خططها القومية لتطوير الذكاء الصناعي، ودعت إلى اللحاق بركب الولايات المتحدة.

وقال خبير تكنولوجي إن الانتقادات الموجهة قد تمثل “مبارزة” بين طرفين.

وقال تقرير صادر من مركز الأمن الأمريكي الجديد، الذراع البحثية للاستخبارات الأمريكية :”لم تعد الصين في مركز أقل تكنولوجيا بالنسبة للولايات المتحدة، بل أصبحت تنافس بحق ولديها القدرة على التفوق على الولايات المتحدة في مجال الذكاء الصناعي”.

وأضاف التقرير، الذي استشهد بوثائق متاحة :”يستثمر الجيش الصيني في عدد من المشروعات ذات الصلة بالذكاء الصناعي، كما تتعاون معاهد بحثية تابعة للجيش الصيني مع قطاع الصناعات الدفاعية الصينية”.

وقال :”يتوقع الجيش الصيني استخدام الذكاء الصناعي في تغيير أساسي لطبيعة الحروب”.

الروبوت القاتل؟

قالت إلزا كانيا، المشرفة على التقرير، إن بعض مؤسسات البحث التابعة للجيش الصيني تتوقع “التفرد” في ميدان المعركة، حيث لا يستطيع العنصر البشري مواكبة سرعة القرارات التي تديرها الآلة خلال المعركة.

وتدعو سياسة وزارة الدفاع الأمريكية “البنتاغون” حاليا إلى دور بشري في الخطوات الهجومية التي تنفذها الآلات، في حين تدرس الأمم المتحدة الدعوة إلى حظر استخدام الأسلحة المستقلة في ميدان المعركة.

وكتبت كانيا :”قد يستفيد الجيش الصيني من الذكاء الصناعي بطرق فريدة وربما غير متوقعة، قد تكون أقل تقييدا على الأرجح مقارنة بالمخاوف القانونية والأخلاقية في الفكر الأمريكي”.

وقال نويل شاركي، رئيس حملة “أوقفوا الروبوت القاتل”، لبي بي سي إن اجتماعه مع مسؤولين صينيين أبرز عدم وجود رغبة في تطوير مثل هذه الأسلحة.

وأضاف :”يبدوا أنهم متخوفون مما يفعله الغرب، وأعربوا عن رغبتهم في منع مثل هذه الأسلحة، لذا قد يعتبر الوضع أشبه بمبارزة (بين طرفين)”.

ويتفق شاركي مع القول بأن الصين قد تلحق بركب الغرب “في غضون خمس سنوات”.

وقال :”يوجد الكثير من الطلاب الصينيين في مجال بحوث الذكاء الصناعي وفي شركات مثل بايدو وعلي بابا وتينسينت، وهي جميعا تقوم بأشياء مثيرة للاهتمام. كما تملك شركة بايدو أكثر من 60 منصة مختلفة للذكاء الصناعي واستثمرت مليار دولار فضلا عن شراء شركات غربية في مجال الذكاء الصناعي”.

كما نبه إريك شميت، رئيس شركة “ألفابيت” الشركة الأم لغوغل، إلى إمكانيات الصين في الذكاء الصناعي. وقال خلال مؤتمر استضافته واشنطن أخيرا :”افترض أن تستمر قيادتنا خلال السنوات الخمس المقبلة، وسوف تلحق الصين بالركب بسرعة شديدة. لذا وخلال خمس سنوات سنكون على قدم المساواة، على الأرجح”.

وأطلعت وكالة رويترز للأنباء على وثيقة غير معلنة من البنتاغون تحذر في وقت سابق من العام الجاري من تمكن شركات صينية من الإفلات من المراقبة الأمريكية، فضلا عن توصلها إلى تكنولوجيا أمريكية حساسة في مجال الذكاء الصناعي يمكن أن يكون لها تطبيقات عسكرية.

كما أشار تقرير حديث من منظمة التعاون الاقتصادي والتنمية إلى نمو القوة التكنولوجية الصينية.

وقال التقرير إن عدد براءات الاختراع المسجلة في تكنولوجيات الذكاء الصناعي في أبرز خمسة مكاتب لحقوق الملكية الفكرية سجلت زيادة بنحو 6 في المئة سنويا في المتوسط خلال الفترة من 2010 إلى 2015، تتصدرها اليابان.

وتسهم اليابان وكوريا الجنوبية والولايات المتحدة معا بما يزيد على 62 في المئة من طلبات تسجيل براءات الاختراع ذات الصلة بالذكاء الصناعي، غير أن طلبات التسجيل من جانب تقديم الصين وتايوان تزيد زيادة كبيرة.

إعداد: جمال علي

المصادر: 12