الرئيسة \  تقارير  \  الروبوتات القاتلة خارج أنظمة الحظر الدولية

الروبوتات القاتلة خارج أنظمة الحظر الدولية

27.06.2022
العرب اللندنية


العرب اللندنية
الاحد 26-6-2022
القتل لجني الأرباح
مع تطور الذكاء الاصطناعي وانتشار الروبوتات التي بدأت تتولى العديد من المهام والوظائف كثر الجدل بين من يعتقد أنها ستساهم في تقديم الخدمات للإنسان والإنسانية، وبين من يرى أنها ستحيل جيشا من العمال على رصيف البطالة. وزاد الأمر تعقيدا عندما ظهرت الروبوتات القاتلة أو ما يسمى بالأسلحة الذكية التي يتوقع أن تبيد البشرية في غياب القوانين الدولية التي تنظم هذه الأسلحة الفتاكة.
جنيف – في مارس 2020 استخدمت الحكومة الليبية طائرة كارغو 2 كوادكوبتر في الحرب الأهلية، وفق تقرير للأمم المتحدة. هذه الطائرة دون طيار تصوب على ​​هدف بشري دون أن تتلقى تعليمات للقيام بذلك. وكانت هذه هي المرة الأولى في التاريخ التي يتم فيها استخدام سلاح فتاك ذاتي التشغيل، يسمى أيضًا الروبوت القاتل.
أنظمة الأسلحة هذه، التي تم تطويرها باستخدام الروبوتات والذكاء الاصطناعي، لا تتطلب تدخلاً بشريا؛ فالطائرات دون طيار وذاتية القيادة، على سبيل المثال، مبرمجة للاقتراب من موقع معين وتحديد الهدف والتصويب نحوه دون أي اتصال بإنسان متحكم.
وعلى عكس أسلحة الدمار الشامل، لا توجد معاهدات أو أنظمة محددة تحظر هذه الأسلحة وهذه التقنيات دوليًا.
وتختلف الآراء حول ما إذا كان ينبغي اعتبار ذلك فجوة قانونية. ورداً على طلب من “سويس أنفو”، كتبت وزارة الخارجية السويسرية أن القانون الإنساني الدولي ينطبق على جميع الأسلحة والتقنيات، بما في ذلك الجديدة مثل أنظمة الأسلحة ذاتية التحكم، “لذلك لا توجد فجوة قانونية بالنسبة إلى استخدام الروبوتات والذكاء الاصطناعي والتقنيات الرقمية الأخرى في النزاعات المسلحة”.
لكن لا يشارك كل أعضاء المجتمع الدولي هذه الرؤية. وتقول لورا برون، الخبيرة في التقنيات العسكرية والأمنية الجديدة في المعهد الدولي لأبحاث السلام في ستوكهولم، “تعتقد بعض الدول أن التشريعات الحالية ليست كافية”. وبينما يغطي القانون الدولي الإنساني جميع أنواع الأسلحة، لا يتم تنظيم استخدام التقنيات العسكرية التي يحركها الذكاء الاصطناعي بشكل صريح، على حد قولها. وتضيف برون أن هذا يخلق فراغًا معياريًا، وذلك اعتمادًا على كيفية تفسير القانون.
وتشير قواعد الاتحاد الأوروبي أو منظمة اليونسكو بشأن الاستخدام الأخلاقي للذكاء الاصطناعي، على حد قول برون، إلى حالات الاستخدام المدني وليس العسكري. لكن مع تقدم التقنيات الجديدة مثل الذكاء الاصطناعي، يصبح من الصعب بشكل متزايد التمييز بين إمكانات التطوير المدنية والإمكانات العسكرية. وما يعقّد عملية التنظيم والرقابة هو حقيقة أن هذه التقنيات وطرق استخدامها سهلة النشر والتداول، حتى  عبر المصادر المفتوحة، كما هو الحال بالنسبة إلى برامج الذكاء الاصطناعي عموما.
بالطبع، ينطبق القانون الدولي الإنساني على استخدام مثل هذه الأسلحة، ولكن هناك حاجة إلى قواعد جديدة للقانون الدولي تأخذ أنواعًا جديدة من التقنيات بعين الاعتبار”، كما تقول الباحثة الأمنية وخبيرة القانون الدولي إليزابيت هوفبيرغر بيبان من المعهد الألماني للشؤون الدولية والأمنية في برلين.
وتجري الأمم المتحدة مفاوضات بشأن حظر أنظمة الأسلحة ذاتية التشغيل في جنيف منذ عام 2017، لكن لم يتم إحراز أي تقدم، حيث رفضت روسيا تقريبًا كل مقترح لتقنين أنظمة هذه الأسلحة، حتى أن روسيا قاطعت الجولة الأخيرة من المفاوضات في مارس بسبب الحرب الدائرة في أوكرانيا.
وترفض إسرائيل والولايات المتحدة وتركيا والمملكة المتحدة وكوريا الجنوبية أيضاً تقنيناً ملزمًا لأنظمة الأسلحة ذاتية التشغيل، لأنها ترى أن القانون الإنساني الدولي كافٍ للتعامل المسؤول مع هذه الأسلحة.
وستعقد اللجنة آخر اجتماع لها في شهر يوليو، ولا يتوقع الخبراء الكثير من التقدم، فالدول المشاركة تتحدث بالفعل خلف الأبواب المغلقة عن فشل مفاوضات جنيف.
وقالت وزارة الخارجية السويسرية إنه في الوقت الحالي لا يوجد اتفاق بين الدول.
وتقول هوفبيرغر “ربما لن ترغب جميع الدول في مواصلة دعم مفاوضات جنيف لأنها ببساطة لا تستحق العناء”. لذلك فهي تتوقع البحث عن هيئات بديلة للتفاوض بشأن قواعد أنظمة الأسلحة المستقلة. ووفقًا لشتيفن هيرتسوغ من مركز الدراسات الأمنية، فإن حقيقة أن معظم الدول لا تسعى إلى فرض حظر كامل على الأسلحة لها أسباب اقتصادية ودبلوماسية، فهذه الدول تخشى تأثير ذلك على صادراتها في مجالات الروبوتات والذكاء الاصطناعي.
ولا تستطيع هوفبيرغر فهم هذه المخاوف؛ ففي الوقت الراهن يتعلق الأمر في المقام الأول بتنظيم استخدام أنظمة الأسلحة ذاتية التحكم بموجب القانون الدولي، وليس بضوابط التصدير نفسها في هذه الحالة، كما تقول.
ومن ناحية أخرى فإن خوف العديد من البلدان من أن الحظر الكامل قد يجعل البحث العلمي في هذا المجال صعبًا هو أمر حقيقي. وتقول هوفبيرغر بيبان “سيتساءل المستثمرون: لماذا نقدم المال إذا لم يُسمح باستخدام الاختراعات؟”. وهذا يمثل تحديًا للولايات المتحدة على وجه الخصوص، وأيضًا للعديد من القوى العسكرية الكبرى الأخرى.
نهج الولايات المتحدة هو أنه يجب اختبار الأسلحة ذاتية التشغيل قبل حظرها. وهذا سُيمكن من معرفة فاعلية هذه الأسلحة.
وتعتقد بعض الدول أن للأسلحة ذاتية التحكم مزايا، على الأقل من جانب الطرف الذي يستخدم هذه الأسلحة، حيث يمكن تجنب الوفيات وتجنب ما يتطلبه الأفراد من تكاليف ومصاريف.
وتؤيد بعض الدول هذه المفاوضات من حيث المبدأ، لكن لم يتم إحراز أي تقدم؛ حيث رفضت روسيا تقريبًا كل اقتراح للتنظيم.