"البنتاجون": "مبادئ أخلاقية" في استخدام الذكاء الاصطناعي بالحروب

ترجمة- رنا عبدالحكيم

قالت وزارة الدفاع الأمريكية "البنتاجون" إنها بصدد اعتماد خطط لاعتماد مبادئ أخلاقية للمضي قدماً في استخدام الذكاء الاصطناعي في الحرب، على ما ذكرت صحيفة ذي إندبندنت البريطانية.

وقالت دانا ديسي كبير مسؤولي المعلومات في البنتاجون، إن المبادئ الخمسة للذكاء الاصطناعي ستضع الأساس لـ"التصميم الأخلاقي والتطوير والانتشار واستخدام الذكاء الاصطناعي من قبل وزارة الدفاع". وتدعو المبادئ الجديدة الأشخاص إلى "ممارسة مستويات مناسبة من الحكم والعناية" عند نشر واستخدام أنظمة الذكاء الاصطناعي، مثل تلك التي تفحص الصور الجوية للبحث عن الأهداف.

وتقول تلك المبادئ إن القرارات التي تتخذها الأنظمة الآلية يجب أن تكون "قابلة للتعقب" و"قابلة للحكم"، مما يعني أنه "يجب أن تكون هناك طريقة لفك الارتباط أو إلغاء تنشيطها" إذا كانت تثبت سلوكًا غير مقصود، وذلك وفقًا للواء القوات الجوية جاك شاناهان مدير مركز الذكاء الاصطناعي المشترك في البنتاجون.

وتسببت خطط "البنتاجون" لتسريع قدراتها في مجال الذكاء الاصطناعي، في نشوب صراع منافسة شرسة بين شركات التكنولوجيا على عقد الحوسبة السحابية بقيمة 10 مليارات دولار. وفازت شركة مايكروسوفت بالعقد في شهر أكتوبر، لكنها لم تكن قادرة على البدء في المشروع الذي يمتد لعشرة أعوام لأن شركة أمازون رفعت دعوى على البنتاجون، قائلة إن كره الرئيس دونالد ترامب تجاه أمازون ورئيسها التنفيذي جيف بيزوس أضر بفرص الشركة في الفوز بالمناقصة.

ويتطلب التوجيه العسكري الحالي الموجود منذ عام 2012، من البشر التحكم في الأسلحة الآلية، ولكن لا يتناول الاستخدامات الأوسع نطاقًا للذكاء الاصطناعي. وتهدف المبادئ الأمريكية الجديدة إلى توجيه التطبيقات القتالية وغير القتالية، من عمليات جمع المعلومات الاستخبارية والمراقبة إلى التنبؤ بمشاكل الصيانة في الطائرات أو السفن.

ومن شأن المشروع أن يوفر القدرة الحاسوبية لتمكين تخطيط الحرب القائم على الذكاء الاصطناعي. ويدعي الجيش الأمريكي أنه سيعزز العمليات البرية بشكل كبير من خلال منح القوات إمكانية الوصول إلى أجهزة الكمبيوتر القوية للغاية للمساعدة في استراتيجية ساحة المعركة.

تعليق عبر الفيس بوك