الذكاء الاصطناعي سيجعل حروبنا الأبدية تستمر إلى الأبد

الجمل: الكاتب ديمتري سايمز جي - ترجمة: لينا جبور

تقف القُوى الكبرى في العالم في منتصف سباق التسلح في مجال الذكاء الاصطناعي. ويتوقع في السنوات القليلة المقبلة أن تنشر الصين أسطولاً من الغواصات غير المأهولة في المياه المتنازع عليها مثل بحر الصين الجنوبي. قامت روسيا باختبار دباباتها الآلية في ساحة المعركة في سورية، وبحسب ما ورد، تعمل روسيا على تطوير غواصات نووية ذاتية التحكم. من جانبها، فإنَّ الولايات المتحدة بصدد اختبار حشود طائراتها المُسيّرة عن بُعد.ينطوي هذا التطور على تأثيرات كبيرة –ليس فقط في كيفية خوض الحروب، ولكن أيضاً في ما يتعلّق بمستقبل السياسة الخارجية الأمريكية. مع نمو الذكاء الاصطناعي ليصبح جزءاً أساساً من الحرب الحديثة، سيكون من الصعب على الولايات المتحدة الخروج من الحروب وتجنب الحروب الجديدة. باختصار، إن استخدام الذكاء الاصطناعي يمكن أن يُبقي الجيش الأمريكي عالقاً في حروب إلى ما لا نهاية.

ليس من الصعب رؤية جاذبية الذكاء الاصطناعي في الصراعات. تستطيع الروبوتات معالجة كميات كبيرة من البيانات تفوق قدرة البشر بكثير. في وقت تتزايد فيه سرعة وتيرة الحرب، توفر أنظمة الذكاء الاصطناعي رد فعل أسرع من ناحية الوقت، ما يسمح للجيوش بتقليل اعتمادها على الأفراد –الأمر الذي يحدّ في النهاية من إراقة الدّم ويخفض التكاليف.ولكن ولسوء الحظ، هناك جانب آخر للأمر. قد يستمد كبارُ القادةِ العسكريين الثقة غير المحدودة من الذكاء الاصطناعي. عندما يتوقف البشر عن خوض القتال بأنفسهم، من السهل أن نستنتج أن تكاليف الحرب تكون أصغر. ولكن بالطبع، هذا غير صحيح.

يصعُب حساب التداعيات الجيوسياسية للحروب في ما يتعدى خسائرها، لكنها ليست أقل أهمية. بعد كلّ شيء، هذا ما أثبتته التدخلات الأجنبية على مرّ العشرين سنة الماضية. لقد أضعفت التدخلات في الصّراعات الخارجية أمن أمريكا ومكانتها العالمية مع تحويل بلدان بأكملها إلى ملاذات للجماعات الجهادية مثل "داعش"، ما أسهم في تدفق أعداد كبيرة من اللاجئين إلى أوروبا، وإقناع كوريا الشمالية بأنَّ بقاءَها يعتمد على الأسلحة النووية. وبالتالي، قد يستغرق تنظيف هذه الفوضى أجيالاً.

صحيح أنَّ التكاليف والتداعيات حقيقية للغاية، لكنها بعيدة جداً عن حياة الأمريكيين العاديين كي يشعروا بها حقّاً. بمجرد استبدال البشر بالآلات في ساحة المعركة، سوف يصبح من الأسهل على السياسيين الصقور إقناع الشعوب بتدخلاتهم في حروب خاسرة وغير مجدية.يصبح الصّراع مرهقاً، ويبدأ الناس بالتفكير فيه مع مرور الوقت. لكن هذا ليس نوع الحرب التي سنخوضها إذا أصبحت عملية الصراع ناعمة كالحرير. أعلن البنتاغون في وقت سابق من هذا الشهر، أنه يقدم برنامج البنية التحتية للدفاع المشترك (JEDI)، وهو نظام ذكاء اصطناعي، أشرف على ساحة المعركة في أفغانستان. يقول الجيش الأمريكي في الوقت الحالي، إنه يعتزم استخدام الذكاء الاصطناعي في أفغانستان بشكل أساس لتخزين كميات هائلة من البيانات، لكن هذا قد يتغير مع استمرار تقدم التكنولوجيا. وبمجرد تحويل عبء صراعات واشنطن إلى الآلات، سيصبح الحفاظ على استمرار حروب أمريكا الطويلة أسهل، والوصول إلى نتيجة في أي وقت قريب أقل احتمالاً.

وعندما يتبين أنَّ الذكاء الاصطناعي عرضة للخطأ، فهناك ما يسبب المزيد من القلق. إن أنظمة الذكاء الاصطناعي غير مرنة، لأنها تمتاز في أداء بعض المهام الروتينية والتعرف على مخططات حسابية محددة، لكنها عرضة للقصور أيضاً عند مواجهة ظروف جديدة لم تتم برمجتها. كما يشير بول شار في الفورن بولسي، تميل أنظمة الذكاء الاصطناعي إلى أن تكون ضعيفة للغاية عندما تقابل سيناريوهات تختلف عن نماذج التدريب الخاصة بها. بعد كل شيء، فإن السبب الرئيس وراء فشل إطلاق السيارات ذاتية القيادة هو أنّها تحتاج للتعامل مع جميع التطورات غير المتوقعة التي يلقي بها الطريق أمامها.

إذا واجهت أنظمة الذكاء الاصطناعي صعوبة في القيادة في شوارع المدينة المزدحمة، فكيف يمكن لها أن تتنقل في ضبابية الحرب؟ بطبيعتها تتميز ساحات القتال والنقاط الساخنة الجغرافية السياسية بعدم اليقين والتغيير المستمر. يُعد إعداد آلة لمثل هذه البيئة أمراً صعباً بشكل خاص، لأن المعلومات دائماً محدودة حول أسلحة العدو وتكتيكاته. في ظل هذه الظروف، من السهل تخيل وجود نظام ذكاء اصطناعي يسيء قراءة الموقف - مع عواقبه الوخيمة.

في 26 أيلول/سبتمبر 1983، اقترب العالم بشكل خطير من هرمجدون النووي أي نهاية العالم نووياً. في وقت مبكر من صباح ذلك اليوم، أعلن نظام الإنذار المبكر النووي للاتحاد السوفياتي عن هجوم خمسة صواريخ بالستية عابرة للقارات تم إطلاقها من الولايات المتحدة. لحسن الحظ، استنتج الضابط السوفياتي الذي يراقب النظام، أن الإشارة كانت بمثابة إنذار خاطئ (مع العلم أن أي هجوم نووي أمريكي حقيقي سيتضمن أكثر من مجرد خمسة صواريخ). ونتيجة لذلك، اختار عدم الإبلاغ عن ذلك إلى رؤسائه، وبالتالي تجنب ضربة مضادة سوفياتية كان يمكن أن تؤدي إلى حرب نووية شاملة.

هل يمكن أن تقوم الآلة بالحكم على هكذا إنذار خاطئ وتأخذ القرار الصحيح؟ بالطبع لا. وبالتالي ستكون غلطة باهظة الثمن. مع احتمال تولي أنظمة الذكاء الاصطناعي دوراً أكبر في الجيش، سيُطلب منها التعامل مع المواقف الحساسة والمخاطر العالية مثل الأزمة النووية عام 1983. بالنظر إلى سجلها حتى الآن، فإن هذا الاحتمال يجب أن يقلقنا. إذا سارعنا إلى اعتماد الذكاء الاصطناعي، فسنسلم سلطة اتخاذ قرارات الحرب والسلام للخوارزميات. وهذه هي بالضبط الطريقة التي ستصبح بها "حروبنا الأبدية" بلا نهاية.

 



المصدر: الأميريكان كونسيرفاتف (The American Conservative)

 
الجمل بالتعاون مع مركز دمشق للدراسات