تتنافس الحكومات الغربية مع بعضها البعض لإنشاء معاهد سلامة الذكاء الاصطناعي. قد أعلنت المملكة المتحدة والولايات المتحدة واليابان وكندا جميعًا مثل هذه المبادرات، في حين أضافت إدارة الأمن الداخلي الأمريكية لجنة الأمان والأمن في مجال الذكاء الاصطناعي إلى قائمة الجهات الرسمية الأخرى التي تعنى بالسلامة. وعلى الرغم من هذا التركيز الكبير على السلامة، فإنه من الملفت للنظر أن لا تدير هذه الهيئات استخدامات الجيش للذكاء الاصطناعي. تظهر ساحة المعركة الحديثة بالفعل المخاطر الواضحة لسلامة الذكاء الاصطناعي.
تعزز شركات التكنولوجيا سوق “deftech” – أو التكنولوجيا الدفاعية – حيث تسعى لتكون جزءًا من هذه الانتعاشة وتتسرع في بيع فوائد الذكاء الاصطناعي على ساحة المعركة. فقد زُعم أن مايكروسوفت قد قدمت Dalle-E، أداة إنتاجية للذكاء الاصطناعي للجيش الأمريكي، في حين يفتخر الشركة الجدلية للتعرف على الوجوه Clearview AI بأنها ساعدت أوكرانيا في تحديد الجنود الروس بتكنولوجيا الوجه. من ناحية أخرى، تعمل شركة Anduril على تطوير أنظمة متطورة وشركة Shield AI على تطوير طائرات بدون طيار مدعومة بالذكاء الاصطناعي.
مع ذلك، فإن الحكومات هي من خرجت عن نطاق رقابتها على قطاع “deftech”. تفتقد كل من الاتحاد الأوروبي والبيت الأبيض إلى قواعد جديدة ملزمة حول أنواع الأنظمة الذكاء الاصطناعي التي يمكن للجيش والخدمات الاستخباراتية استخدامها. وبذلك، فإنهم يفتقرون إلى السلطة الأخلاقية لتشجيع الدول الأخرى على وضع حواجز حول استخدامها الذاتي للذكاء الاصطناعي في جيوشها. مع وجود تصريح سياسي أخير حول “استخدام الذكاء الاصطناعي والذكاء بطريقة مسؤولة في المجال العسكري” ، لكنه لا يتجاوز التصريحات العامة.
تعد الفوائد السياسية لمراجعات السلامة الخاصة بـ الذكاء الاصطناعي ذات أهمية كبيرة إذا لم تغطي استخدامات الجيش للتكنولوجيا. على الرغم من عدم وجود أدلة تثبت أن الأسلحة التي تعمل بالذكاء الاصطناعي يمكن أن تتوافق مع القانون الدولي فيما يتعلق بمبدأ التمييز والتناسب، إلا أنها تُباع حول العالم. ونظرًا لأن بعض التقنيات قابلة للاستخدام المزدوج، فإن الحدود بين الاستخدامات المدنية والعسكرية تتموج. يجب أن يكون التحكم البشري في العمليات حاسمًا في مساءلة الجهات المعنية قانونيًا.
حاول الأمين العام للأمم المتحدة ملء الفجوة. طالب الأمين العام أنطونيو غوتيريش بحظر الأسلحة الذاتية في عام 2018، ووصفها بـ “المقيتة أخلاقيًا”. لكن رفض روسيا والولايات المتحدة والمملكة المتحدة وإسرائيل اقتراحًا قابلًا للالتزام، مما أدى إلى فشل المحادثات. يجب على النظام الدولي القائم على القواعد أن يتحرك من أجل حماية المدنيين من استخدامات الجيش للذكاء الاصطناعي. يبقى القيادة السياسية حاسمة لضمان أن تسمى القواعد والقوانين التي تحمي المدنيين في عصر جديد من الحروب.