الذكاء الاصطناعي: خطر محتمل على الأمن الوطني / موسى حرمة الله

لا يمكن إيقاف التطور التقني، وقد أصبح الذكاء الاصطناعي يطرح في حياتنا اليومية مشكلة حقيقية على الصعيد الأخلاقي، والاجتماعي، والمجتمعي. فهذه التقنية التي كانت قِدْمًا ضربا من الخيال العلمي غدت اليوم واقعا ماثلا للعيان. وبمقدور كل شخص أن يلج إليها بواسطة تطبيق بسيط على هاتف محمول.

ومتى تحكّمت فيها أيادٍ خبيثة فإنها تستغلها لأغراض إجرامية أو للتضليل الإعلامي. وبالمقابل، يشكل الذكاء الاصطناعي أداة قيّمة إذا استُعمل في خدمة الرفاه الإنساني: في الصحة، والتعليم، والاقتصاد، إلخ، لكن شريطة أن يظل الإنسان متحكما في الآلة. غير أن التطور المتسارع والمنفلت لهذه التقنية قد يفضي، في غياب المراقبة الصارمة، إلى تدمير البشرية. وعندها سيكون الذكاء الاصطناعي هو الموجّه والمسيّر للجنس البشري.

“وبحسب خبراء معهد ماساشوتس للتكنولوجيا MIT، سيتمكن الذكاء الاصطناعي من إيجاد طرق مختصرة تنحرف به عن تأدية المهام التي يرسمها البشر أو تعديلها من جديد. كما أن بمقدور هذا الذكاء المصطنع أن يلجأ إلى تقنيات تتلاعب بالعقل البشري وتخدعه. وبإمكانه كذلك أن يقاوم المحاولات البشرية الرامية إلى مراقبته أو توقيفه”.

وستكون هذه الوضعية في غاية الخطورة إن استطاعت التقنية أن تضاهي أو تتفوق على الذكاء البشري.

وبعد هذه اللمحة العامة عن الذكاء الاصطناعي، لنترك المختصين يواجهون الإشكاليات المرتبطة بهذه التقنية الجديدة، ولنتطرق لطريقتي استخدام الذكاء الاصطناعي.

الاستخدام الحميد للذكاء الاصطناعي

يعرض الذكاء الاصطناعي نسختين إحداهما واضحة والأخرى مشفّرة. والولوج إلى النسخة الأولى حر ومفتوح للجمهور.

عند الدخول إلى الذكاء الاصطناعي، يُتاح للشخص من أجل التصور أو لتنفيذ مشروع ما وسائلُ معلوماتية شبيهة بما يتوفر للدول وحتى أكثر.

وعندئذ، نكون أمام استشارات افتراضية متعددة التخصصات ومجانية ومتوفرة على مدار الساعة، لا تغادر صغيرة ولا كبيرة من المعطيات السياسية، والاقتصادية، والاجتماعية، والأمنية، والعسكرية، والأهم من ذلك ترتيب هذه المعطيات للتوصل إلى هدف معيّن.

توفر هذه الاستشارات الافتراضية أجوبة دقيقة على الأسئلة المطروحة بهامش خطأ شبه معدوم.

هذا هو الاستخدام العادي للذكاء الاصطناعي المتاح بصورة حرة لأيٍّ كان. وعلى العكس، “بالنسبة لكل قضية مصنّفة في دائرة الخطر”، هناك مِصْفاة أي قفل يمنع الولوج إلى ذاكرة الذكاء الاصطناعي. وفي الوضعية الحالية، يلزم كسر أحد الأقفال الثلاثة للحصول على أجوبة على المواضيع المصنفة بوصفها “حساسة جدا”. ولهذا الغرض، إما أن يصبح الذكاء الاصطناعي مستقلا، أي محررا من أي قيد قانوني للتمكن من الولوج الحر إلى جميع الخبايا في ذاكرته، وإما أن تفتح الولايات المتحدة والصين (وهما وحدهما المتحكمتان تماما في تقنيات الذكاء الاصطناعي) كافة الأبواب مُشْرَعةً للوصول إلى تلك الجوانب المخبّأة في الذاكرة.

مخاطر الانحراف المحتمل للذكاء الاصطناعي

هناك طريقة ثالثة للولوج إلى كافة الجوانب في ذاكرة الذكاء الاصطناعي فيما يتعلق بالمواضيع الموصوفة بأنها “حساسة جدا”، ألا وهي طريقة القراصنة الذين بإمكانهم اعتماد أساليب إلكترونية للنفاذ إلى ذاكرة الآلة.

وهذا هو الخطر الذي يتعيّن على كل دولة أن تخشاه. ذلك أن القراصنة بمقدورهم، بإغراء المال، أن ينفذوا إلى ذاكرة الآلة ويوفروا لشخص أو مجموعة من الأشخاص معلومات في غاية السرية من شأنها أن تزعزع أمن دولة ما. وبالجملة، يمكن أن يسلّم القراصنة لصاحب الطلب المفتاح الذي يكفل له بلوغ أهدافه. وذلك بتقديم أجوبة دقيقة لكل سؤال. على سبيل المثال: ما المجالات الحساسة في تطبيق الذكاء الاصطناعي التي يمكن أن تعرّض للخطر أمن نظام من أنظمة البلدان النامية؟ كيف يمكن تحضير انقلاب انطلاقا من المعطيات التي يوفرها الذكاء الاصطناعي؟

للجواب عن هذا السؤال، سيعمد الذكاء الاصطناعي إلى استظهار كل المعطيات المخزّنة في ذاكرته عن البلد المعني فيما يتعلق بجيشه، ومصالح أمنه واستخباراته، والانقلابات الناجحة أو المحبطة التي حدثت فيه، وما هي الأهداف الاستراتيجية فيه: قيادة الأركان، الإذاعة/التلفزة، الرئاسة. وسيوضح الذكاء الاصطناعي كيفية السيطرة على كل من هذه المواقع.

كما سيذكر الذكاء الاصطناعي الطريقة اللازم اتباعها لمواجهة القوى الحامية للنقاط الاستراتيجية.

“ومن جهة أخرى، يمكن للذكاء الاصطناعي أن يحلل معطيات الاتصالات لتحديد الحلفاء المحتملين داخل الجيش أو الكشف عن نقاط الضعف لدى قوات الأمن. كما يمكنه أن يرسم سيناريوهات لتبيين الوقت المناسب لإجراء الانقلاب، والأماكن المفضلة لانطلاقه من أجل ضمان أكبر الفرص لنجاحه.

وبالتلاعب بالمعلومات، يستطيع الذكاء الاصطناعي أن يقترح تحريك المشاغبين والصيادين في المياه العكرة لإحداث اضطرابات عرقية في بلد معين، والقيام بحملات لتأجيج النعرات القومية والسياسية لزعزعة نظام ما.

وفي قائمة الأعمال السيئة التي قد يقترحها الذكاء الاصطناعي، يوجد كذلك التضليل الإعلامي الموجّه. فالفيديوهات المزيفة التي يولّدها الذكاء الاصطناعي يمكن أن تظهر زعماء من المجموعات الأهلية يطلقون تصريحات نارية تثير سخط السكان. وقد تنجم عن هذه التصريحات المفبركة صدامات عرقية.

وفي هذا السياق، يمكن نشر فيديوهات مزيّفة تظهر عنفا منسوبا للشرطة بهدف إحداث قلاقل واضطرابات.

ومن أخطر أنواع التزييف للصوت والصورة انتحال هوية شخص مثل رئيس دولة أو حكومة، أو زعيم للمعارضة، أو مسؤول عسكري سام، وجعله يقول أو يفعل أشياء لم يقلها ولم يفعلها البتة، بهدف إثارة الرأي العام أو تشويه سمعة الشخص. وهذا النمط من الفيديوهات يعسر اكتشاف زيفه.

ذلك أن ملامح الشخص ونبرة صوته مطابقة تماما للحقيقة وتبدو مقنعة.

لقد أصبح من الممكن أن نقوّل الإنسان ما نريد، اعتمادا على صورته وصوته. ثم ننشر الفيديو على مواقع التواصل الاجتماعي.

بعض الأمثلة الآنفة الذكر تم اقتباسه من دليل الذكاء الاصطناعي.

كيف نتفادى تلك المخاطر؟

للوقاية من الاستخدام السيئ للذكاء الاصطناعي بما يمس من التماسك الاجتماعي واللحمة الوطنية أو حتى من ديمومة الدولة نفسها، يمكن اتخاذ التدابير الاحترازية التالية:

1. إنشاء إدارة عامة للذكاء الاصطناعي وتقنيات الأمن السيبراني، ملحقة بالوزارة الأولى؛

2. استحداث قطاع للذكاء الاصطناعي في كلية العلوم والتقنيات؛

3. إدراج دروس للإلمام بالذكاء الاصطناعي في برنامج الباكالوريا للشعب العلمية؛

4. إنشاء مركز وطني مخصص للتعريف بالذكاء الاصطناعي والتكوين على الأمن السيبراني لفائدة مسؤولي الاستخبارات والأمن، بالاستعانة بدورات تدريب في الخارج.