ملخص
تقديم هذا المحتوى هو استلام الإشعارات المجانية من خلال التوقيع للحصول على Artificial intelligence myFT Digest – مباشرة إلى صندوق بريدك الإلكتروني. من بين كوابيانا عن الذكاء الاصطناعي هو أنه سيمكن الروبوتات القاتلة من اجتياح ساحة المعركة والتسبب في الموت والدمار بناء على تقديرات خوارزمية. غير أن العالم الحقيقي أكثر فوضى وتعقيدًا من القصص المصورة. كما يظهر قصف إسرائيل لغزة، فإننا قد نتجه نحو أشكال أكثر خفية ومكررة لاتخاذ القرارات المؤتمتة في عمليات الحرب.
وفقًا لتقرير مروع نُشر الأسبوع الماضي من خلال المجلة الإلكترونية الإسرائيلية +972، أظهر تقرير الاعتماد الشديد لجيش الدفاع الإسرائيلي في بداية الحرب على نظام تكنولوجيا المعلومات المعرفية المسمى باللافندر، الذي رصد 37،000 شخصًا من سكان غزة كمشتبه بهم على أنهم عناصر في حماس. نتج عن ذلك قتل العديد منهم وقتل أسرهم أيضًا.
تجادل الجيش الإسرائيلي في العديد من جوانب هذا التقرير. قالت التقارير المخابراتية الإسرائيلية المنفردة التي تحدثت مع +972 إن النظام لديه معدل خطأ يبلغ حوالي 10 في المئة، حيث قد يرصد بعض الأهداف خاطئًا للاغتيال. كما ادعوا أن قوات الدفاع الإسرائيلية قد تسمح بضرب عنصر هماس منخرط، حتى على حساب قتل 15 إلى 20 مدنيًا. من الواضح أن القيادة البشرية لعملية تحديد الأهداف المؤتمتة كانت دنياً، وأحيانًا لا تستمر لأكثر من 20 ثانية.
ما لا يُمكن الجدل حوله هو الخسارة المروعة لحياة المدنيين في غزة التي حصلت في الأسابيع الأولى من الحرب بعد الهجوم القاتل لحماس على إسرائيل في السابع من أكتوبر. وفقًا للسلطات الفلسطينية، قتل حوالي 14،800 شخص، بما في ذلك حوالي 6،000 طفل و 4،000 امرأة في غزة قبل وقت الهدنة المؤقتة في 24 نوفمبر حين كانت لابندر تستخدم بشكل أكبر.
هناك عدة جوانب من مأساة الإسرائيليين والفلسطينيين فريدة، ومنبوذة في تاريخ المنطقة، وتركيبتها السكانية وجغرافيتها. لكن إسرائيل هي أيضًا واحدة من أكثر الدول تقدمًا تكنولوجيًا في العالم والطريقة التي تشن بها الحرب تؤجج الجدل العالمي حول استخدامات الذكاء الاصطناعي في العسكرية.
يدخل هذا الجدل بين ما يسمى بالواقعيين والمطلقين الأخلاقيين. يقول الواقعون إن الذكاء الاصطناعي هو تكنولوجيا قابلة للتطبيق بطرق عديدة سواءً للخير أو للشر. قلة، على سبيل المثال، ستعارض استخدامه في الأسلحة الدفاعية، مثل نظام القبة الحديدية الإسرائيلي الذي أسقط عشرات الصواريخ من غزة. لكن يبدو أن نظام اللافندر ساهم في معدل “مفرط بشكل كبير” من الأضرار الجانبية التي لا يمكن الدفاع عنها من الناحية الأخلاقية، وفقًا لتوم سيمبسون، الذي كان يعمل في قوات البحرية الملكية وهو الآن أستاذ للفلسفة بجامعة أكسفورد.
تثير الحرب الخوارزمية مخاطر أخلاقية جديدة
مقالات ذات صلة
مال واعمال
مواضيع رائجة
النشرة البريدية
اشترك للحصول على اخر الأخبار لحظة بلحظة الى بريدك الإلكتروني.
© 2024 خليجي 247. جميع الحقوق محفوظة.