حالة الطقس      أسواق عالمية

تفاعل مع النشرات الإخبارية المجانية لتبقى على اطلاع دائم بآخر التحديثات عبر الاشتراك في “myFT Digest” للذكاء الاصطناعي والذي يُرسل مباشرة إلى بريدك الإلكتروني. يعمل الكاتب كمدير للسياسات الدولية في Stanford University’s Cyber Policy Center ومستشار خاص للجنة الاتحاد الأوروبي ويوضح أن الحكومات الغربية تتسابق لإنشاء معاهد لسلامة الذكاء الاصطناعي. الدول الرئيسية التي أعلنت عن مثل هذه المبادرات هي المملكة المتحدة والولايات المتحدة واليابان وكندا. ورغم تركيزها الكبير على السلامة، إلا أنه لا يوجد هيئات تنظم استخدام الذكاء الاصطناعي في القطاع العسكري. على الرغم من ذلك، فإن الحرب الحديثة تظهر بالفعل مخاطر واضحة في استخدام الذكاء الاصطناعي.

وتقرير أخير من مجلة +972 الإسرائيلية كشف عن استخدام قوات الدفاع الإسرائيلية برنامج مدعوم بالذكاء الاصطناعي يُعرف بـ Lavender لتحديد أهداف الهجمات بالطائرات بدون طيار. حيث يستخدم البرنامج مصادر البيانات والمعلومات من أجل تحديد المشتبه بهم. ويزعم البرنامج أنه تم التعرف على عشرات الآلاف من الأهداف وأدى إسقاط القنابل في غزة إلى وقوع أضرار ووفيات زائدة. ورغم نفي القوات المسلحة الإسرائيلية لبعض الجوانب في التقرير، فإن رواد رأس المال يعززون سوق “دفتيك” أو تقنية الدفاع. تقنولوجيا الشركات تسعى لأن تكون جزءًا من هذه الانفجار الأخير وسريعة في تسويق فوائد الذكاء الاصطناعي في ساحة المعركة.

وعلى الرغم من سهولة إلقاء اللوم على الشركات الخاصة التي تروج للذكاء الاصطناعي لأغراض الحرب، يتوجب على الحكومات الرقابة على قطاع “دفتك” الهروب من رقابتها. فإن قانون الاتحاد الأوروبي للذكاء الاصطناعي لا ينطبق على أنظمة الذكاء الاصطناعي التي تكون “حصراً لأغراض عسكرية أو دفاعية أو أمنية وطنية “. وبينما كان هناك منحتين هامتين في تنفيذ الأمر التنفيذي الأمريكي بشأن الذكاء الاصطناعي (رغم وجود إرشادات داخلية في وزارة الدفاع)، فإن مجلس مجلس الشيوخ بمنتهى. على سبيل المثال، تنفذ أنظمته بصورة كبيرة عندما يتم استخدام الذكاء الاصطناعي كمكون للنظام الوطني الأمني “. ولم يتخذ الكونجرس أي إجراء لتنظيم استخدامات التكنولوجيا العسكرية. وهذا يترك البلدين الديمقراطيين الرئيسيين في العالم بين لاجديد حول قواعد تطبيقية جديدة بشأن أنواع أنظمة الذكاء الاصطناعي التي يمكن استخدامها في الجيش وخدمات المخابرات.

وحتى التصريح السياسي الأخير حول “الاستخدام العسكري المسؤول للذكاء الاصطناعي والذاتية” الذي حظي بدعم عدد من البلدان، لا يزيد عن تصريح. يجب علينا أن نسأل أنفسنا مدى دلالة المناقشات السياسية حول سلامة الذكاء الاصطناعي إذا لم تغطي استخدامات الجيش للتكنولوجيا. على الرغم من عدم وجود دليل على إمكانية الأسلحة الممكنة بالذكاء الاصطناعي أن تتوافق مع القانون الدولي بشأن التمييّز والنسبية، فإنها تباع حول العالم. ونظرًا لاستخدام بعض التكنولوجيا بشكل ثنائي الاستخدام، تزداد الحدود بين استخدامات المدنيين والعسكرية. التقرير السياسي الأخير حول “استخدام الذكاء الاصطناعي والذاتية للجيش” الذي دعمته عدد من الدول، لا يزال كتصريح فقط ولا يحد من إجراء الدول لحماية المدنيين من استخدامات الذكاء الاصطناعي العسكري.

وإذا لم تشرع الدول في حماية المدنيين من استخدامات الذكاء الاصطناعي العسكرية، فإن النظام الدولي القائم على القواعد يجب أن يرتقي. سيكون الأمين العام للأمم المتحدة هو أحد الجهات القادرة على توصية بالحظر على استخدامات الذكاء الاصطناعي العسكرية الخطرة، ولكن القيادة السياسية تظل ضرورية لضمان تطبيق القوانين. إن الحفاظ على معايير حقوق الإنسان وقوانين الصراع العسكري لحماية المدنيين في عصر جديد للحروب أمر حرج. فإن الاستخدام غير المنظم للذكاء الاصطناعي في ساحة المعركة يجب أن لا يستمر.

شاركها.
© 2025 جلوب تايم لاين. جميع الحقوق محفوظة.
Exit mobile version