البنتاغون يتبنى “مبادئ أخلاقية” لاستخدام الذكاء الاصطناعي

البنتاغون
صورة عامة لوزارة الدفاع الأميركية (البنتاغون) مصوّرة من الأعلى من طائرة فوق واشنطن العاصمة في 30 أكتوبر 2018 (AFP)

أعلنت وزارة الدفاع الأميركية (البنتاغون) في 25 شباط/فبراير الجاري أنه تبني “مبادئ أخلاقية” لاستخدام القوات المسلحة للذكاء الاصطناعي، وهو إجراء يهدف خصوصا إلى إقناع موظفي الشركات التكنولوجية الأميركية العملاقة بالتعاون مع الجنود، وفق ما نقلت وكالة فرانس برس.

وقال وزير الدفاع الأميركي مارك إسبر “من شأن الذكاء الاصطناعي تغيير أمور كثيرة في ساحة المعركة في المستقبل، لكن لن يغير التزام أميركا الثابت بالتصرف بمسؤولية وبشكل قانوني”.

وأوضح بيان صحافي أن البنتاغون الذي ينتقد بانتظام استخدام الشرطة في الصين تقنية التعرف على الوجوه، ملتزم استعمال الذكاء الاصطناعي لاستخدامات “صريحة ومحددة”.

وهذه الأدوات “الذكية” التي تكسب بنفسها بالخبرة القدرات اللازمة لإنجاز المهمات الموكلة إليها، ستكون أيضا “موثوقة” وستتسم مواصفاتها بالشفافية، وفق ما أكد الجيش الأميركي.

وستكون أيضا “قابلة للتحكم بها” بمعنى أنه يمكن إلغاؤها في حال حدوث عمل مخالف.

ولا تزال مسألة الأسلحة الذاتية موضع نقاش داخل البنتاغون، إذ إن المبدأ الأساسي هو أن الآلة لا يمكنها اتخاذ القرار لإطلاق النار على هدف ما.

وتم تحديد هذه المبادئ بعد 15 شهرا من المشاورات مع ممثلي عمالقة التكنولوجيا الأميركيين والجامعات الكبرى والإداريين برئاسة إريك شميدت الرئيس السابق لمجلس إدارة “غوغل”.

وبضغط من موظفيها، تخلت “غوغل” في 2018 عن صفقة مع البنتاغون تهدف إلى مساعدة الطائرات بدون طيار على التمييز بين الأشياء والبشر بشكل أفضل بفضل الذكاء الاصطناعي وهو مشروع أطلق عليه “مايفن”.

وقال الجنرال جاك شاناهان رئيس قسم الذكاء الاصطناعي في البنتاغون خلال تقديم هذه المبادئ الجديدة للصحافة “لو كان لدينا مبادئ أخلاقية حول الذكاء الاصطناعي قبل ثلاث سنوات (عندما أطلق مشروع مايفن) ولو كنا شفافين حول ما كنا نحاول القيام به فربما كانت النتيجة ستكون مختلفة”.

Be the first to comment

اترك رد

هذا الموقع يستخدم Akismet للحدّ من التعليقات المزعجة والغير مرغوبة. تعرّف على كيفية معالجة بيانات تعليقك.

Translate