د. أبو بكر خالد سعد الله
في 17 نوفمبر 2018، عنونت الصحيفة الاقتصادية الألمانية Deutsche Wirtschafts Nachrichten إحدى مقالاتها: «الحرب العالمية الثالثة: آلات ستفْتِك بالبشر» تنبأت فيها بأن الحرب المقبلة ستخلف «دمارًا واسعا» بسبب تطور الأسلحة التي تنشرها القوى العظمى. وإذا ما اكتسحت هذه الآلات ساحة المعركة فالوضع سيصبح بالغ الخطورة. وما يحدث حاليا هو سعي كثير من الدول على أن تعوض هذه الآلةُ الإنسانَ بصفة تدريجية!
يسمي البعض هذه الروبوتات المفزعة «مركبات غير مأهولة» (unmanned vehicles). ولعل من الأفضل تسميتها «مركبات غير إنسانية»! إنها أجهزة مسيّرة عن بعد بدأت تظهر منذ مطلع هذه الألفية. وقد مهدت الطريق لظهور آلات ذاتية التحكم أكثر خطورة، وهي التي أُطلق عليها الآن مصطلح «أسلحة فتاكة ذاتية التحكم»، أو باختصار «الروبوتات الفتّاكة» أو «القاتلة».
روبوت خفير
أما الروبوت الفتّاك الذاتي التحكّم، فهو ذلك الذي يقتل البشر بقرار داخلي دون انتظار تأكيد من عون بشري. ولعل أفضل مثال على ذلك هو الروبوت الخفير الذي وضع في الخدمة عام 2013 على الحدود التي تفصل الكوريتين. ونُشر في المنطقة المنزوعة السلاح بين كوريا الشمالية وكوريا الجنوبية، وزُوّد بمدفع رشاش وقاذفة قنابل.
يكشف هذا الروبوت التحركات من حوله ليلا نهارا، وبمقدوره إطلاق النار بشكل تلقائي، دون تمييز، على أي شخص أو مركبة عند الاقتراب منه.
ومن المشكلات التي تطرحها هذه الأسلحة تلك المتعلقة بالأخلاقية والقانون، إذ يتعارض استخدامها مع مبادئ حقوق الإنسان والمعاهدات الدولية لأن الإنسان يعتبر في كل المواثيق الدولية القضية المركزية.
والآلة بحكم طبيعتها لا مشاعر لها وتجهل معنى الحياة. فهل من المعقول في هذه الظروف السماح للآلة باتخاذ قرار القتل؟ ومن سيكون في آخر المطاف المسؤول عن تصرفاتها؟ ناهيك عن قضايا الأمن التي تثيرها هذه التجهيزات العسكرية.
أليس من حقنا أيضا أن نخشى اختراقات إلكترونية وعمليات قرصنة تحوّل أداء هذه الآلات إلى عمليات مضادة؟ ذلك ليس مستبعدا!
مناشدات ودعوات عاجلة
تزايدت الدعوات للحيطة والحذر من هذا الربوت الفتّاك خلال السنوات الماضية. ففي نهاية أغسطس 2017، بعث نحو مئة رئيس شركة تهتم بتصنيع الروبوتات وبتطوير الذكاء الاصطناعي، رسالة مفتوحة إلى الأمم المتحدة لتحذيرها من أخطار الأسلحة المسيرة ذاتيا. وفي يونيو 2018، التزمت مؤسسة «غوغل» Google بعدم وضع تقنيات الذكاء الاصطناعي في خدمة هذا النوع من الأسلحة.
وفي عام 2015، نشر «معهد مستقبل الحياة» (Future of Life Institute) في بوسطن رسالة مفتوحة وقعها أكثر من 16 ألف شخص، تحذّر هي الأخرى من التهديدات على المدنيين التي تشكلها الأنظمة الفتاكة المعتمدة على الذكاء الاصطناعي.
ومنذ 2014، توالت مثل هذه الصيحات المحذرة من مغبة تشجيع البحث العلمي في هذا الاتجاه المدمر. وما فتئت العديد من الهيئات والشخصيات العلمية تراسل الأمم المتحدة والأسرة الدولية معبرةً عن مخاوفها. وما حدث في آخر المطاف أمر مؤسف: لقد فتحت الأمم المتحدة باب النقاش في موضوع الروبوت الفتاك عام 2018، وأرادت التوصل إلى حل لاستباق الأحداث ووضع الأصبع على موطن الداء.
وبعد اجتماعات دامت أسبوعًا في مدينة جنيف السويسرية، حال موقف عدد من البلدان دون الاتفاق على معاهدة دولية تحظر استخدام الأسلحة الفتاكة المسيرة ذاتيا.
وإذا لم يتم الاتفاق على معاهدة تحظر تطوير هذا السلاح… فما العمل؟ قد يكون أحد الحلول إضفاء الطابع الإنساني والأخلاقي على الروبوت بحيث يصبح متحليا بمكارم الأخلاق في ساحة المعركة؟! هل يصعب على الذكاء الاصطناعي التوصل في يوم قريب إلى تزويد الآلة بمدونة توضح القيم الأخلاقية الخاصة بالمقاتلين الآليين؟ هذا هو ما يتمناه المتخوفون. غير أن هذا يتطلب تضافر جهود كل الدول المتسابقة في مجال تطوير هذا السلاح. ولا تزال معظم الدول الأعضاء في منظمة الأمم المتحدة تطمح إلى التوصل لاتفاق يبعد هذا الكابوس عن البشرية.
الوضع الراهن
بروس جيت Bruce Jette هو موظف سامٍ في الجيش الأمريكي، يشرف على المقتنيات والإمداد والتكنولوجيا. وخلال ندوة بواشنطن مطلع عام 2019، أعلن بروس أن هناك حاجة للتفكير في استخدام أنظمة الأسلحة الفتاكة الذاتية التحكم. وهذه هي المرة الأولى التي يدلي فيها مسؤول أمريكي من هذا المستوى بتصريح من هذا القبيل. والتبرير الأمريكي لاستعمال هذا السلاح هو أنه السلاح المناسب للرد على هجمات الأعداء.
وبهذا الصدد، يوضح بروس موقفه قائلا: «تخيل أنك تطلق النار عليّ، وأنه يمكنني إبطال مفعول تلك الرصاصات، لكن يتعيّن عليّ في كل مرة الحصول على موافقة الجهة الوصية للردّ عليك». في تلك اللحظات لن يكون هناك عدد كاف من الرجال في الميدان للرد بسرعة مناسبة على الرصاصات. ففي هذه الوضعيات ندرك -حسب بروس – أن استخدام الروبوتات الفتاكة سيجعلنا نردّ على المهاجم بسرعة أكبر.
ويرى بروس أن الذين يدافعون عن فكرة حظر استعمال هذه الآلات الفتاكة يعملون في واقع الأمر ضد مصالح الولايات المتحدة. ونتيجة لذلك ستجد نفسها عرضة لهجمات تأتيها من دول أقل منها شأنا، مثل الصين وروسيا. ولذلك يستخلص بروس جيت أن «السماح للذكاء الاصطناعي بالسيطرة على بعض أنظمة الأسلحة قد يكون السبيل الوحيد لإلحاق الهزيمة بأسلحة العدو».
يتقاسم وجهة نظر بروس جيت العديد من ساسة دول العالم. والدليل أن الجيوش الأمريكية والبريطانية والإسرائيلية تجرب منذ سنوات عديدة أنظمة الأسلحة الفتاكة المسيرة ذاتيا، بل إن تصاميم هذه الروبوتات في شركة «بوسطن دايناميكس» Boston Dynamics الأمريكية -التي تأسست عام 1992 وتخصصت في الروبوتات – بدأت تظهر منذ 20 سنة؛ إذ تطور الشركة روبوتات متخصصة في الفنون الحربية.
وفي هذا السباق صُممت روبوتات ذات قدرات رهيبة، منها ما يتحرك على قائمتين، ومنها ما يتحرك على أربع. ومن تلك الروبوتات طائرات من دون طيار ومركبات مسلحة مسيّرة من دون سائق. ولا يستبعد المتتبعون أن يكون هذا النوع من الآلات القتالية في ساحة المعركة في غضون بضع سنوات إلى جانب قوات عسكرية بشرية. وإذا ما حدث ذلك في جيش من الجيوش فسيكون السباق على أشده في بلدان أخرى كثيرة لبلوغ نفس الهدف.
تصاميم متطورة
تطورت تكنولوجيا تصميم هذه الآلات وقطعت أشواطا كبيرة، فصممت مثلا طائرات من دون طيار يمكن وضعها في راحة اليد، وهي قادرة على الطيران دون أن يلاحظها أحد، تحلّق في السماء منعزلةً أو ضمن سرب طائرات حتى تصل إلى الشخص المستهدف بالقتل، ومن دون تدخل أي إنسان تُجهز عليه. ويفضل القادة العسكريون هذا الروبوت على البشر لتنفيذ مثل هذه العمليات لأن الجندي قد يساوره شك في آخر لحظة، أو يتردّد، أو يمتنع عن تنفيذ المهمة أو يخطئ في الهدف، إلخ. تلك هي تبريرات البعض التي يجيزون بها استعمال هذا النوع من الآلات.
وفي الوقت نفسه، نجد فئة من خبراء الأمن منزعجة من هذا النقاش لأنه يسيء إلى نيات الباحثين، وكأن كل الروبوتات تُصنع من أجل القيام بجرائم ضد الإنسانية! ويرى هؤلاء الخبراء أن السؤال الدقيق الذي ينبغي طرحه هو: إلى أي مدى نريد أن نذهب في عملية أَتْمَتَة السلاح؟ ويتساءلون مثلا : هل ستذهب سفن الاستخبارات المسيرة ذاتيا إلى أن تقرر وحدها نسف العدو؟ وهل يمكن إلقاء القبض على الروبوت الفتّاك حين تُوجّه له تهمة ارتكاب جرائم حرب أو جرائم ضد الإنسانية؟ وهل ستكون هناك محكمة خاصة لمحاكمة تلك الآلات المجرمة؟
التصنيع الفردي
لا توجد حاليا روبوتات فتاكة رسمية قيد الخدمة عبر العالم، وهذا شيء جميل. غير أن ما يؤرق الملاحظين هو احتمال تصنيع روبوتات فتاكة على مستوى الفرد، ذلك أن المكوّنات الأساسية لصناعتها متاحة بِحُريّة من الناحية التجارية، الأمر الذي يزيد من مخاوف امتلاكها من قْبل الإرهابيين. وإلى جانب ذلك
شرعت الشركات الكبرى لصناعة الأسلحة في العمل على أنظمة أكثر تطورًا قادرةً على العمل باستقلالية تامة.
يقدّر بعض الخبراء أنه من المرجّح نشر هذا النوع من الأسلحة بحلول عام 2030. ولكن قبل ذلك، سيتعيّن على تلك الدول الماضية في هذه الصناعة التغلب على بعض القيود التكنولوجية، وبوجه خاص مشكلة التحكم الذاتي التي لم يتم حلها بصفة جذرية حتى الآن. وهناك أيضا مسألة قدرات الذكاء الاصطناعي على التكيّف مع حيثيات اتخاذ القرار الحاسم (القرار بالقتل مثلا).
ومع ذلك يقول بعض المدافعين عن هذا النوع من الأسلحة إنه يتم تطويرها أولاً للحد من الخسائر البشرية خلال المعارك. كما أنها ستستخدم لمساعدة المقاتلين الجنود في عمليات معينة، مثل إجلاء الجرحى في جبهات القتال أو نقل المعدات والمُؤن.
ومن فوائد هذه الروبوتات أيضا أنها لا تشعر بالتعب أو الألم، ويمكنها أن تعمل في بيئة معادية دون أن تخشى النشاط الإشعاعي وظروف الطقس (شدة الحرارة أو البرد) والعطش.
كل هذا جميل، ويبقى من الصعب التنبؤ حاليا بمصير هذه الآلة الفتاكة التي لا تقيم للجانب الإنساني أو الأخلاقي وزنًا.