المخاطر والتحديات.. كيف تؤثر تكنولوجيا الذكاء الاصطناعى على الأمن القومى للدول؟

إعداد: دينا لملوم 

تكنولوجيا الأمس تحاصر الحاضر وتهدد المستقبل، ذلك التنين التكنولوجى الممثل فى الذكاء الاصطناعى، الذى يشكل تهديدًا صارخًا لأمن واستقرار الدول، بات بمثابة الآفة والمرض العضال الذى يتفشى فى مختلف النواحى على مستوى العالم، لا سيما الدول العظمى، فقد ظهرت بوادره فى الخمسينيات، واستُخدم هذا المصطلح لأول مرة خلال مؤتمر جامعة “دارتمورث” بشأن الذكاء الاصطناعى عام ١٩٥٦، ومنذ ذلك الحين، نشر المبتكرون والباحثون قرابة ١.٦ مليون منشور يتعلق به، وعلى الرغم من الفوائد التى يجنيها مستخدمو هذا النوع من التكنولوجيا إلا أنه محاصر بالعديد من المخاطر المحتمل أن تصل إلى تهديد الجنس البشرى بشكل دفع علماء وخبراء هذا المجال للتحذير من تداعياته التى قد تخرج عن السيطرة، وقد ظهرت تطبيقات الذكاء الاصطناعى فى الحرب (الروسية – الأوكرانية) التى لم تتوانَ عن استخدامه فى ميدان المعركة، وثمة تحذيرات من تنامى الأذرع السامة لهذه التكنولوجيا، وسعى الدول إلى اتخاذ تدابير الحماية للتصدى لتداعياتها؛ حفاظًا على أمن واستقرار البلاد وديمومة السلام للأجيال القادمة.

ماهية الذكاء الاصطناعى:

يتم تعريف الذكاء الاصطناعى على أنه أحد أدوات البحث فى علوم الحاسوب المعنية بتطوير الآلات والحواسيب؛ لتتمكن فى النهاية من التوصل إلى درجة معينة من درجات التفاعل البشرى، بالشكل الذى يمكنها من القيام بعمليات تفاعلية مثل البشر وأحيانًا أكثر منه كفاءة، كقيام الحواسيب بمهام تشغيلية دون تدخل من الإنسان، وفى الوقت الحالى تتنوع تطبيقات الذكاء الاصطناعى ما بين الرصد والتحليل، ولكن يبقى القرار النهائى فى يد البشر المتحكم الأول فى هذه الآلية، إلا أن التطور السريع الذى تشهده ينذر باحتمالية التوصل إلى درجة من الذكاء الاصطناعى تعادل مستوى التفكير البشرى، بالشكل الذى يمكنه من اتخاذ القرارات دون الرجوع لهم وهو وضع أكثر خطورة، حيث يهدد الحياة الآدمية التى قد تؤدى إلى انقراض الإنسان، أو إحلال الآلة محله فى الحياة العملية.

مظلة الذكاء الاصطناعى الحمائية:

على الرغم من التحديات التى تواجه مستخدمو تكنولوجيا الذكاء الاصطناعى، إلا أنه يعد بمثابة المظلة الحمائية للأمن القومى فى العديد من الدول فى الوقت الحالى، فهو صانع المستقبل المقبل؛ نظرًا لما يجنيه من ثمار، حيث يساعد على:

١- ضمان أمن المعلومات: تؤدى تقنيات الذكاء الاصطناعى دورًا مهمًا ومفصليًا فى مجالات جمع المعلومات المتوفرة على منصات التواصل الاجتماعى بطريقة غير منظمة، إضافة إلى المعلومات الموجودة فى المنصات السوداء والعميقة، والتى تعد بؤرة من بؤر محترفى القرصنة الإلكترونية ومرتكبى الجرائم السيبرانية، وبالتالى فمن خلال خوارزميات الذكاء الاصطناعى يتم تعقب قنوات الاتصال المشبوهة التى تعمل على شن الهجمات السيبرانية وسرقة البيانات والمعلومات الحساسة والتى تضر بالأمن القومى للدول، ومن ثم اتخاذ خطوات حمائية بطريقة استباقية من قبل مؤسسات الأمن المعنية بهذا الشأن.

٢- رصد التطرف: تقوم الجماعات المتطرفة حول العالم باستخدام قنوات الاتصال عبر منصات الإنترنت، وذلك لنشر المعلومات المضللة والتجنيد والتخطيط للعمليات الإرهابية؛ لذا فتقنيات الذكاء الاصطناعى أصبحت ضرورة ملحة، لاستخدامها فى علميات الرصد عبر الإنترنت، لتحديد محاولات التخطيط للتهديدات التى تمس أمن الدول.

٣- دعم أنظمة القيادة: يعمل الذكاء الاصطناعى على دعم وتطوير أنظمة القيادة والسيطرة بالجيوش، وهو ما يسهل عملية التخطيط وتنفيذ المهام الجوية والبحرية والبرية وأيضًا الإلكترونية، بما يضمن تحقيق التنسيق الكامل بين الأسلحة؛ وصولًا إلى أعلى درجات الفعالية فى تنفيذ العمليات واتضح ذلك فى وجود طائرات من دون طيار، واستخدام تقنيات الذكاء الاصطناعى فى مجال الدفاع الجوى للعمل فى مناطق القتال التى تشكل خطرًا على المقاتلين من البشر، كما أن هذه التكنولوجيا تستخدم فى مجال صيانة النظم العسكرية المتقدمة، والتنبؤ بالأعطال بشكل استباقى وعمل جداول الصيانة الوقائية تلقائيًا وإبلاغها للأطقم الفنية لإجراء عمليات الصيانة اللازمة، الأمر الذى يوفر الوقت والجهد والمال بدلًا من القيام بالصيانة عند حدوث خلل فعلى وتعطيل هذه النظم العسكرية من القيام بمهامها.

الأمن القومى فى عصر الذكاء الاصطناعى:

أضحى العالم فى حقبة من التقدم والتطور التكنولوجى الذى تحكمه الآلة بشكل كبير، ويؤدى استخدام تقنيات الذكاء الاصطناعى إلى حزمة من التهديدات السياسية والعسكرية والأمنية وطيدة الصلة بالأمن القومى للدول، ويمكن تناول أبرز هذه التهديدات فى التالى:

إحلال الآلة محل الإنسان:

لقد دقت تكنولوجيا الذكاء الاصطناعى ناقوس الخطر، حيث باتت تحل محل الإنسان بشكل تدريجى فى العديد من الوظائف والمهن، وهو ما يدفع إلى تسريح العمال والموظفين، وبالتالى زيادة معدلات البطالة؛ نظرًا للإمكانيات المتطورة التى تمتلكها أجهزة الذكاء الاصطناعى بشكل يعادل أو يفوق قدرات البشر، وقد يتم استحداث مهن جديدة مرتبطة بهذه التقنية، الأمر الذى قد يؤدى فى نهاية المطاف إلى حدوث تصدعات فى هيكل القوى العاملة والإنتاجية، ومن ثم احتمالية حدوث حراك من قبل العاملين وإحداث فوضى فى البلاد، بيد أن ارتفاع معدلات البطالة ينجم عنه عواقب وخيمة تشكل فى مجملها تهديدًا جسيمًا للأمن القومى للدول، وتشير التقديرات إلى فقدان ما يقرب من ٨٠٠ مليون عامل لوظيفته بحلول عام ٢٠٣٠، وهو ما ينعكس على زيادة نسب الفقر واتساع الفجوة الرقمية وعدم المساواة فى المجتمع.

اتساع نطاق الأسلحة ذاتية التشغيل:

تتسارع وتيرة استخدام الأسلحة ذاتية التشغيل “الدرونز” من قبل عدة دول، الأمر الذى يثير حالة من الهلع؛ نتيجة لتزايد الخسائر البشرية التى تنجم عن الغارات التى تقوم بها هذه الطائرات خاصة إذا تم استخدامها فى مناطق سكنية كثيفة السكان، وتشير الدراسات إلى أن حوالى ٨٠٪ من الوفيات الناجمة عن هجمات الطائرات من دون طيار تحدث فى صفوف المدنيين، كما أنها تفتقر للقدرة على التمييز بين الأهداف العسكرية ونظيرتها المدنية، وبالتالى إحداث إصابات بين المدنيين بدلًا من توجيه الهدف نحو العدو المستهدف، وعليه فقد أصبح مفهوم الروبوتات القاتلة قادرًا على شرح كيفية عمل الأسلحة ذاتية التشغيل. من ناحية أخرى لا يمكن تجاهل الاستخدام الآمن لهذه الروبوتات من قبل العديد من القوات العسكرية فى دول مختلفة، والتى يتم توجيهها نحو استكشاف نيران العدو من زاوية قريبة، وحمل الذخيرة والماء والعتاد الخاصة بالفرق، إضافة إلى البحث عن المتفجرات أو جنود العدو فى الظلام؛ لذا فهذه الآلية سلاح مخضب ذو حدين يتوقف فى النهاية على إرادة مستخدميه وهل سيتم توجيهه نحو الأهداف بشكل سلمى أم سيُحرف ويستخدم بشكل فيه تهديد للأمن والاستقرار.

إرهاب الذكاء الاصطناعى:

شهدت الفترة الأخيرة لجوء بعض التنظيمات الإرهابية إلى استخدام تقنيات الذكاء الاصطناعى فى شن عملياتهم المختلفة، وتوظيف الدرونز فى الهجوم على القواعد العسكرية ومواقع تخزين النفط والمطارات، واستهداف الدول المجاورة، أيضًا يتم استخدام السيارات ذاتية القيادة من قبل هذه الجماعات وذلك مثلما حدث فى هجوم برشلونة عام ٢٠٠٧، وشن هجمات فى برلين عام ٢٠١٦، وتمكن هذه التطبيقات التنظيمات الإرهابية من تنفيذ هجماتها التقليدية عن بعد دون الزج بالتابعين لها لتنفيذ هذه الهجمات.من المتوقع أن ينمو سوق الروبوتات العسكرية بمعدل نمو سنوى مركب ١٠.٧٪ من ٢٠٢٢ إلى ٢٠٢٩، ويحتمل أن يصل إلى ما يزيد على ٣٥.٤٥ مليار دولار أمريكى بحلول عام ٢٠٢٩ من ١٤.٢٠ مليار دولار أمريكى فى عام ٢٠٢٠.[1]

سوق الروبوتات العسكرية المخاطر والتحديات.. كيف تؤثر تكنولوجيا الذكاء الاصطناعى على الأمن القومى للدول؟

سوق الروبوتات العسكرية

إنتاج أسلحة بيولوجية:

يتم استخدام الذكاء الاصطناعى فى بعض الأحيان لإنتاج وتطوير الأسلحة البيولوجية، حيث يمكن التلاعب بالمضادات الحيوية والأدوية، وإنتاج عقاقير سامة يمكن توظيفها من قبل الجماعات المتطرفة والمختبرات البيولوجية؛ لاستخدامها فى ضرب الدول المستهدفة وتهديد أمنها القومى بكافة أبعاده وأشكاله.

مخاطر الذكاء الاصطناعى على الأمن القومى للدول:

على الرغم من الثمار التى يجنيها مستخدمو تكنولوجيا الذكاء الاصطناعى، إلا أن هذه الآلية محفوفة بالمخاطر بالشكل الذى استدعى تدخل باحثين فى المجال مثل إيلون ماسك وستيفن هوكينج للتحذير من تداعيات الانتشار الموسع لهذه الأنظمة الفتاكة، ويمكن إجمال أبرز التحديات الناجمة عنها وتأثيرها على الأمن القومى للدول فى التالى:

١- سوء الاستخدام والإدارة من قبل بعض الأنظمة لا سيما الاستبدادية منها، وذلك عن طريق تقنيات المراقبة الجماعية التى تمكن الحكومات أو الكيانات المختلفة من مراقبة مواطنيها والسيطرة عليهم، وهو ما يشكل انتهاكًا لخصوصياتهم، وقد يتم استخدام هذه الآلية للقيام بعمليات القمع بما يؤدى إلى انتهاك حقوق الإنسان، ومثال ذلك قيام السلطات الإسرائيلية باستخدام الذكاء الاصطناعى من خلال نشر كاميرات ترصد تحركات ووجوه الفلسطينيين وتحفظ بياناتهم، ومن ثم اتخاذ قرار بالسماح بمرورهم أو رفضه عند نقاط التفتيش المختلفة، كل هذا بدون تدخل بشرى.

٢- تعد تقنيات الذكاء الاصطناعى سلاحًا ذا حدين ففى الوقت الذى يتم توظيفها فى عمليات الأمن السيبرانى ضد الهجمات السيبرانية، أيضًا قد يتم استخدامها فى تطوير برامج خبيثة وشن هجوم على المؤسسات والأفراد والقطاع الخاص والحكومى، الأمر الذى قد ينجم عنه خسائر مادية واقتصادية مستقبلًا.

٣- توظيف تكنولوجيا الذكاء الاصطناعى فى عمليات التزييف العميق، سواء بإنتاج المقاطع الصوتية والبصرية أو إنتاج المحتوى والنص، أو تدشين شخصيات رقمية لسياسيين أو شخصيات مهمة بشكل يصعب معه التمييز بين المحتوى الحقيقى والمزيف، ومن ثم فقد تحدث كوارث جراء هذا الفعل، وانعدام مستوى الثقة بين الأفراد.

٤- غياب الآلية القانونية المتعلقة بحظر أو خفض مستوى التسلح فى مجال تطبيقات الذكاء الاصطناعى العسكرية، ومن ثم عدم وجود غطاء يضمن التحكم وإدارة عواقب الانتهاكات التى تسببها.

شات جى بى تى:

تقنية شات جى بى تى هى عبارة عن روبوت أو برنامج يعمل بواسطة الذكاء الاصطناعى، ويقوم بالحديث مع المستخدم والإجابة على أسئلته بشكل تفصيلى، ويسمح لهذا المستخدم بتصحيح أخطائه والاعتذار عن هذه الأخطاء، وتم إطلاقه نوفمبر ٢٠٢٢، وقد دربت الشركة المصنعة هذا النموذج عبر استخدام كميات كبيرة من المعلومات المتاحة على شبكة الإنترنت، إضافة إلى العديد من المصادر العامة بما فيها حوارات ومحادثات بين البشر، بالشكل الذى يمكنه من إنتاج نصوص أشبه بالنصوص البشرية عبر تعلم خوارزميات تعمل على تحليل كميات من البيانات فى محصلة نهائية تشبه العقل البشرى، وقد دخلت هذه التقنية إلى الاستخدام العام منذ قرابة ستة أشهر، ووصل عدد مستخدميه لأكثر من ١٠٠ مليون مستخدم شهريًا، وهو ما يجعله أسرع التطبيقات نموًا.

وبالنظر إلى التهديدات التى يشكلها تطبيق شات جى بى تى، نجد أنه يحتمل أن يكون أداة لتطوير قدرات وإمكانات مرتكبى الجرائم الإلكترونية وقراصنة الإنترنت والمحتالين، بما قد يسهم فى شن عمليات  التجسس السيبرانى والهجمات الإلكترونية وأبرزها برامج الفدية، ناهيك عن نشر الشائعات والأكاذيب والمعلومات المضللة، وهو ما اتضح فى قيام التطبيق بعمل دراسة عن لقاحات كورونا عبر استخدام أسلوب التضليل الإعلامى بإحصائيات ومراجع مختلفة، فى محصلة نهائية تشكل تهديدًا جسيمًا للأمن القومى للدول والحكومات.

ميثاق مجلس الأمن الدولى:

باعتبار أن مجلس الأمن الدولى الجهة المنوطة بحفظ الأمن والسلم الدوليين، فقد أعطى نص المادة ٣٩ من ميثاق الأمم المتحدة سلطة تقديرية للمجلس لتحديد طبيعة المصادر التى تشكل تهديد للأمن والسلم، وفى السنوات الأخيرة توسع المجلس فى تحديد مصادر التهديد التى لم تعد مقتصرة على كل ما هو عسكرى فقط، وبالتالى كان عليه أن يعتبر الذكاء الاصطناعى ضمن مهددات الأمن والسلام، ومن ثم انطباق الآليات والإجراءات التى نص عليها الميثاق فيما يخص تعزيز الأمن الجماعى الدولى فى الوقت الذى تتزايد فيه مخاطر تكنولوجيا الذكاء الاصطناعى، لا سيما فى حقبة الصراعات التى تشهدها الساحة الدولية، كالحرب (الروسية – الأوكرانية) والحروب الأهلية المشتعلة فى أماكن متفرقة حول العالم، واستخدام الجماعات المتطرفة هذه التقنيات لتنفيذ عملياتهم الإرهابية.

ولكن ثمة عقبات تعترى مجلس الأمن فى التعامل مع قضايا الذكاء الاصطناعى أبرزها عدم وجود توافق دولى حول اعتبار هذه التقنيات مهددة للأمن والسلم الدوليين خاصة من قبل الدول الكبرى التى تمتلك حق الفيتو فى مجلس الأمن مثل أمريكا والصين وروسيا؛ وذلك لأنها تستحوذ على نصيب الأسد فى مجال الابتكار واستخدام تكنولوجيا الذكاء الاصطناعى وبشكل خاص فى المجال العسكرى، الأمر الذى أدى إلى إفشال محاولات مجلس الأمن فى قضايا عدة من شأنها تهديد السلام والاستقرار العالمى، ومن ثم فلابد من إجراء إصلاحات فى نظام الفيتو والحد من استخدامه بشكل موسع من قبل الدول العظمى؛ حتى يتثنى للمجلس اتخاذ خطى إيجابية نحو الحد من التهديدات سواء التقليدية أو غير التقليدية والتى تتزايد خطورتها يومًا بعد الآخر.

العالم يستثمر فى الذكاء الاصطناعى:

فى عصر بات مفتاحه التقدم التكنولوجى، نجد أن معظم الدول لا سيما العظمى منها، توجه الكثير من رؤوس الأموال الخاص إلى الاستثمار فى تقنيات الذكاء الاصطناعى، وتشير تقديرات إلى أن حجم استثمارات القطاع الخاص فى الذكاء الاصطناعى يمكن أن يصل إلى ١٥٨ مليار دولار عام ٢٠٢٥، مقارنة بـ١١٠ مليارات دولار بحلول نهاية العام الجارى، ويتوقع أن تشهد الثلاث سنوات المقبلة زيادة استثمارية فى هذا القطاع بنسبة تتخطى الـ٧٠٪ مقارنة بالوضع الحالى، ويتم توجيه هذه الاستثمارات نحو تطوير البنية التحتية للذكاء الاصطناعى، بحيث تشمل مراكز البيانات والخدمات الأخرى وطيدة الصلة.[2]

على الصعيد الآخر، انعكست الأزمة الاقتصادية العالمية على تطبيقات الذكاء الاصطناعى؛ حيث انخفض التمويل العالمى بنسبة ٣٤٪  فى عام ٢٠٢٢، ليبلغ ٤٥.٨ مليار دولار، بعدما سجل ٦٩.٧ مليار دولار فى عام ٢٠٢١، وتراجع حجم التمويلات؛ حيث انخفضت بنسبة ١٠٪ على أساس سنوى لتبلغ ٢٩٥٦ صفقة فى عام ٢٠٢٢ مقارنة بنحو ٣٢٧٤ صفقة فى عام ٢٠٢١، وانخفضت قيمة الجولات التمويلية الضخمة التى تتجاوز ١٠٠ مليون دولار فى عام ٢٠٢٢ لتبلغ ١١٥ جولة، مسجلة تراجعًا بنسبة ٣٩٪ عن عام ٢٠٢١، وتراجعت عمليات الاستحواذ أو الاندماج فى مجال الذكاء الاصطناعى بنسبة ١٧٪ على أساس سنوى فى عام ٢٠٢٢ لتصل إلى ٢٥٩ صفقة، وتراجعت الاكتتابات الأولية بنسبة ٥٧٪ إلى ١٩ اكتتابًا.[3]

الاستثمار السنوى لكبرى الشركات العالمية فى مجال الذكاء الاصطناعى ٢٠١٣ ٢٠٢١ المخاطر والتحديات.. كيف تؤثر تكنولوجيا الذكاء الاصطناعى على الأمن القومى للدول؟

الاستثمار السنوى لكبرى الشركات العالمية فى مجال الذكاء الاصطناعى (٢٠١٣-٢٠٢١)

مؤشرات الذكاء الاصطناعى فى مصر:

حصلت مصر على المرتبة الثانية فى إفريقيا بعد موريشيوس وفقًا لتقرير مؤشر جاهزية حكومات دول العالم لتطبيق تكنولوجيا الذكاء الاصطناعى لعام ٢٠٢٢.

صعدت ٥٥ مركزًا فى مؤشر “جاهزية الحكومة للذكاء الاصطناعى” وفقا لتقرير التنمية البشرية لمصر ٢٠٢١.

تقدمت من المركز ٧٢ من بين ١٣٨ دولة عام ٢٠٢٠ إلى المركز ٥٣ من بين ١٥٤ دولة عام ٢٠٢١ وفقًا لتقرير مؤشر المعرفة العالمى.[4]

كما أن هناك عددًا من شركات الذكاء الاصطناعى الناشئة المصرية أو المملوكة لمصريين ضمن الشركات الأكثر تطورًا على مستوى العالم، فهناك شركة تحليل مقاطع الفيديو “أفيدبيم”، والتى صنفت ضمن أهم ٢٠ مطورًا للذكاء الاصطناعى عالميًا، وجذبت استثمارات تأسيسية من شركات “إيجيبت فينتشرز”، وهناك “أفيكتيفا” التى تدرب الروبوتات على قراءة المشاعر، وجاءت ضمن قائمة فوربس لأبرز ١٠ ابتكارات تكنولوجية بمجال الذكاء الاصطناعى، بالإضافة إلى شركة “ذا دي” والتى تأسست فى مصر ولديها فرع آخر فى بون بألمانيا، وتعمل على توفير الخدمات التقنية والرقمية للشركات، وشركة إنوفيشن هب، والتى تقدم خدماتها للطلبة فى مصر وتونس وبريطانيا.

تخوف أمريكى:

فى ظل التقدم الهائل الذى يحققه مجال الذكاء الاصطناعى، تتخوف الولايات المتحدة الأمريكية من خطر صعود التنين الصينى التكنولوجى على الرغم من تصدر شركات أمريكية كـ “ميتا وميكروسوفت وفابيت” مجالات صناعة الذكاء الاصطناعى، إلا أنها ترغب فى أن تكون لاعبًا أساسيًا فى هذه الصناعة؛ نظرًا لكونها مستقبل الغد ومعقل التكنولوجيا الحديثة، وما يزيد المخاوف الأمريكية هو استحواذ بكين على ٣٧ من أصل ٤٤ مجالًا من مجالات التقنية المتطورة، وجاءت واشنطن لتحتل المرتبة الثانية، وحصلت على المركز الأول فى التقنيات السبع المتبقية مثل تصميم وتطوير أجهزة أشباه الموصلات المتقدمة، والحوسبة الكمية واللقاحات وغيرها، وبالنسبة للصين، فإنها تحتكر ٨ مجالات تقنية، مثل تقنيات النانو تكنولوجى والاتصالات المتقدمة بالترددات الراديوية وطاقة الهيدروجين والأمونيا وخلافه، وهو ما يعيد إلى الأذهان فكرة سباق التسلح التى تعود إلى حقبة الحرب الباردة والتى كانت بين معسكرى الشرق والغرب، ولكن فى الوقت الحالى تغيرت دفة الأمور لنصبح على شفا حرب تكنولوجية ساخنة تدور رحاها على مسار بارد بين قوى عديدة تحتل ثقل ومكانة كبرى، تشكل فى النهاية تهديدًا صارخًا لأمن واستقرار العالم بأسره، وهو ما يتطلب ضرورة وضع آليات وقوانين رادعة تقيد هذه التقنيات وتجعل مسارها للعمل السلمى فقط، ومحاسبة المخالفين، وهو الأمر الذى قد يصعب معه التحقيق العملى على أرض الواقع فى ظل الدوافع الخبيثة والطفرة التكنولوجية التى تتسارع خطاها بصورة مفزعة، ربما يصعب السيطرة عليها بعد ذلك، وهو ما يدفع خبراء ومصنعو هذه التقنيات إلى التحذير من خطورتها واحتمالية سيطرتها على العقل البشرى، بل وتفوقها عليه بما يهدد حياة الإنسان.

3 المخاطر والتحديات.. كيف تؤثر تكنولوجيا الذكاء الاصطناعى على الأمن القومى للدول؟

الحرب الروسية الأوكرانية.. نموذج حى لقدرات الذكاء الاصطناعى:

لقد قدمت الحرب (الروسية – الأوكرانية) نموذجًا حيًا لاختبار قدرات وتطبيقات الذكاء الاصطناعى على أرض الواقع، فمنذ بزوغ اليوم الأول للهجوم الروسى على أوكرانيا ظهرت هذه التكنولوجيا واقتحمت مجال الحرب؛ لتثبت فى النهاية أن التقنيات المتقدمة يمكن أن ترسم لها ملامح النجاح على أرضية غير متكافئة ضد قوى عسكرية كبرى مثل روسيا، فقد تمكنت أوكرانيا من استخدام قدرات الذكاء الاصطناعى، لتحديد الجنود الذين يشاركون فى الحرب وربط هذه البيانات بحسابات وسائل التواصل الاجتماعى وغيرها من وسائل الاتصال مع المواطنين الروس، كما استخدمت أنظمة ذات الذكاء الاصطناعى بالفعل فى جمع المعلومات ومعالجتها وتحليلها، وفى القيادة والسيطرة للصواريخ والدفاع الجوى، علاوة على أنظمة الاتصالات العسكرية، والذخيرة الذكية القادرة على تحديد الهدف بشكل مستقل وتحديد مسار الرحلة، وأجهزة عرض المعلومات الإلكترونية البصرية، وكذلك فى أنظمة الأرصاد الجوية، لمراعاة الظروف الجوية عند التخطيط للعمليات العسكرية، وبالتالى فقد رسم الصراع صورة صارخة لفاعلية الطائرات من دون طيار “الدرون” وأنظمة التحكم والتشغيل الذاتى فى ساحة المعركة، إذ وفرت الحرب أرضية تجارب غير مسبوقة لتكنولوجيا الطائرات ذاتية التشغيل التى استخدمت بشكل يفوق استخدامها فى أى صراع سابق.

وقد كانت الحرب فى أوكرانيا بمثابة جرس الإنذار لبعض الدول، حيث الاهتمام بتكنولوجيا الذكاء الاصطناعى التى أثبتت فعاليتها فى ساحة المعركة الأوكرانية، ودعت إلى ضرورة التسلح التكنولوجى ومواكبة العصر، وكأن العالم يعود إلى سباق التسلح مرة أخرى، ولكن هذه المرة هو سباق عبر شاشات صامتة قد تتحكم فى مصير العالم بعد ذلك.

المستقبل النووى فى حقبة الرعب الاصطناعى:

فى ظل الطفرات المرعبة التى بات يحدثها التقدم الرهيب فى مجال الذكاء الاصطناعى، تثار المخاوف حول مستقبل العالم الذى يضعه التقدم التكنولوجى والتطور النووى بين شقى الرحى، وتتصاعد التحذيرات من أن مواصلة السير فى إنتاج روبوتات اصطناعية وتطوير الذكاء الاصطناعى إلى مستويات كبيرة، يمكن أن ينتج عنه خطوة تفوق خطوة استخدام الأسلحة النووية، وهو ما أكده إيلون ماسك، ولكن ذلك لا يبرر للعالم أن يصنع رؤوسًا حربية نووية كيفما شاء، ونلاحظ أن الذكاء الاصطناعى يعد بالغ الخطورة مقارنة بالانتشار النووى؛ وذلك لأن تصنيع قنبلة نووية يتطلب مستوى هائلًا من المهارات، وعددًا من علماء الفيزياء والمهندسين المتميزين، ومواد انشطارية، وأموالًا طائلة؛ لهذا السبب، ستبقى الأسلحة النووية بعيدة عن متناول بلدان كثيرة فى المستقبل، لكن يختلف الوضع مع أسلحة الذكاء الاصطناعى، التى هى عبارة عن برامج متواجدة على رقائق إلكترونية داخل أجهزة الحواسيب ولوازم الطابعة ثلاثية الأبعاد، حيث يمكن تغيير استعمالها وتحويلها إلى سلاح مستقل.

ولكى ندرك مدى الخطورة التى باتت تسببها تكنولوجيا الذكاء الاصطناعى، يمكن النظر إلى العالم البريطانى الكندى “جيفرى هينتون”، المعروف بـ «أبو الذكاء الاصطناعى» الذى أعلن استقالته من شركة جوجل الأمريكية العملاقة وندمه على سنوات عمله فى تطوير تكنولوجيا الذكاء الاصطناعى بعد أن لمس أثناء رحلته العملية كم المخاطر التى تنطوى عليها، فضلًا عن سام ألتمان، الرئيس التنفيذى لشركة “أوبن إيه آى” المبتكرة لأحد أشهر تطبيقات الذكاء الاصطناعى حاليًا وهو “تشات جى. بى. تى”، من أن الذكاء الاصطناعى يشكل خطرًا وجوديًا على البشرية، وأن التحدى الذى يواجه العالم اليوم يتعلق بكيفية إدارة هذه المخاطر والاستفادة من الميزات التى تتيحها هذه التكنولوجيا وتجنب استخدامها بشكل قد يدفع إلى تدمير العالم وإهلاك البشرية.

سبل التصدى لتهديدات الذكاء الاصطناعى:

لكى يتم السيطرة على المخاطر التى تسببها تكنولوجيا الذكاء الاصطناعى يعمل الباحثون فى هذا المجال على:

  • وضع وتطوير سبل آمنة وموثوقة لأنظمة الذكاء الاصطناعى تساعد فى زيادة الشفافية والمساءلة، وتقديم رؤى حول كيفية وصول نظام الذكاء الاصطناعى إلى قرارته.
  • تصميم أنظمة ذكاء اصطناعى مبرمجة بشكل صريح تراعى سلامة الإنسان وتحقق رفاهيته، مع تجنب المخاطر التى من شأنها الإضرار به، ويمكن تحقيق ذلك من خلال دمج الاعتبارات الأخلاقية فى مرحلة التصميم والتطوير لهذه الأنظمة.
  • بناء آليات تمكن العنصر البشرى من التدخل فى عمليات صنع القرار والتحكم فى أنظمة الذكاء الاصطناعى حال عزوفها عن المسار الصحيح وتصرفها بشكل غير متوقع أو إحداثها أى أضرار للمستخدم.
  • تشكيل رابطة تكنولوجية تجمع بين الخبراء فى مجالات مختلفة، كالهندسة وعلوم الحاسوب والقانون وخلافه؛ من أجل العمل بشكل جماعى لمجابهة التحديات التى يسببها الذكاء الاصطناعى، فمن خلال هذه الرابطة يمكن لصانعى السياسات الوعى بخطورة هذه التقنيات ووضع إستراتيجيات فعالة تحد من خطرها.

وتسعى العديد من الدول إلى تعظيم الاستفادة من تكنولوجيا الذكاء الاصطناعى؛ تحقيقًا للمنفعة العامة، والحد من المخاطر سواء الحالية أو المحتملة، ونجد أن الإدارة الأمريكية كانت قد اتخذت حزمة من الإجراءات لكبح جماح الخطر الاصطناعى منها:

١- دعوة شركات التكنولوجيا إلى وضع اتفاق فعال للسيطرة على عمليات التطور السريع للذكاء الاصطناعى.

٢- سعى الرئيس “جو بايدن” إلى تضييق الحصار على أى شركة تعمل بشكل منفرد؛ لكى يتم السيطرة عليها بشكل جيد، ومطالبة الشركات العملاقة بتعميم مجال عملها؛ وذلك يجعل الذكاء الاصطناعى تحت السيطرة المباشرة.

وإيمانًا من معظم الدول حول العالم بخطورة الذكاء الاصطناعى وتحدياته المستقبلية تم تقديم العديد من الدعوات للأمين العام للأمم المتحدة لإنشاء كيان أممى جديد لدعم الجهود الجماعية لإدارة تقنيات الذكاء الاصطناعى، ويتوقع عقد اجتماع لهذا الكيان بحلول نهاية العام الجارى حول خيارات الحوكمة العالمية للذكاء الاصطناعى.

التوصيات:

١- وضع إستراتيجيات وطنية تتعلق بالتصميم والتطوير والاستخدام المسؤول للذكاء الاصطناعى بشكل يلائم المسؤولية الملقاة على عاتقه بموجب القانون الدولى الإنسانى وقانون حقوق الإنسان.

٢- المشاركة فى وضع صيغة جماعية تتعلق بالأعراف والقواعد والمبادئ التى تحكم التطبيق العسكرى للذكاء الاصطناعى، والتأكد من مشاركة الأطراف الفاعلة وطيدة الصلة فى هذا الشأن.

٣- تأسيس وثيقة إطارية ملزمة قانونيًا بحلول ٢٠٢٦؛ لحظر استخدام الأسلحة الذاتية الفتاكة، وتعزيز آليات الرقابة على التقنيات القائمة على البيانات بما فيها الذكاء الاصطناعى؛ لأغراض مكافحة الجريمة والإرهاب.

٤- التوافق الدولى حول وضع إطار قانونى ملزم يضمن الاستخدام السلمى لتكولوجيا الذكاء الاصطناعى والحد من المخاطر التى قد يسببها، مع قيام الدول ذاتها بشن تشريعات داخلية تعاقب على الجرائم الإلكترونية من خلال عقوبات مشددة تتوقف على حجم التهديد الذى سببه الهاكر.

٥- نشر الوعى بخطورة الذكاء الاصطناعى التى تنجم عنه، خاصة مع بدء تغلغل روبوتات الدردشة – مثل روبوت “سناب شات” الجديد الذى أطلق فبراير الماضى- فى الحياة العامة للمواطنين، وهو ما قد ينذر ببناء واقع افتراضى ربما يجعل هؤلاء الأفراد يعيشون فى عزلة اجتماعية يحتمل أن تكون تداعياتها وخيمة مع احتمالية تعرضهم للسطو الإلكترونى وسرقة المعلومات الشخصية من قبل هذه الروبوتات.

٦- محاولة بناء شبكة معلوماتية من قبل مختصين فى الأمن السيبرانى داخل كل دولة على حدة للتحكم فى تقنيات الذكاء الاصطناعى لا سيما المواقع الضارة، وحجب هذه المواقع من الاستخدام العام؛ إعمالًا لمبدأ الحماية الاجتماعية لجموع المواطنين من خطر هذه التكنولوجيا.

ختامًا:

يبدو أن العالم مقبل فى الفترة القادمة على سباق التسلح المعلوماتى التكنولوجى، بشكل يصعب معه التكهن بمآلات الوضع، خاصة فى ظل نظام دولى فوضوى قائم على تعدد الأقطاب بالرغم من كونه فى طور التشكيل، وسعى كل طرف من هذه الأطراف إلى تطوير قدراته العسكرية بشكل استباقى؛ تخوفًا من النوايا العدائية للأطراف الأخرى، وهو ما جعل العالم على شفا حرب تكنولوجية باردة، والأدهى من ذلك تحور تقنيات الذكاء الاصطناعى بشكل ربما يخرج عن السيطرة ويجعله يحل محل البشر، هذا وقد بات مخترعى هذه التقنيات يتخوفون من التقدم الملحوظ الذى حققته خلال الفترات الأخيرة بما قد يؤدى إلى فقدانهم السيطرة عليها، ويبقى المستقبل متوقف على الإرادة الجماعية التى تؤمن بضرورة وضع حلول فعالة تضمن حياة آدمية لشعوب اليوم والغد، وإعطاء الأولوية لهذا المجال مع الاستفادة من الميزات التى يقدمها ووضع خطط استباقية تحفظ بها أمن واستقرار البلاد؛ وذلك لأن المخاطر التى يشكلها الذكاء الاصطناعى تتطلب الإمعان فى التهديدات التى ربما تؤدى إلى التحكم فى قراراتهم المصيرية، وعليه فلابد من تقنين استخدامه وتأطير قواعده الحاكمة.

المصادر:

[1] https://cutt.us/4HKPa

[2] https://cutt.us/VFulb

[3] https://acpss.ahram.org.eg/News/20893.aspx

[4] https://cutt.us/IbeAo

كلمات مفتاحية