حذرت باكستان من مخاطر الذكاء الاصطناعي غير المنظم، مؤكدة على ضرورة أن يكون استخدامه، وخاصة في التطبيقات العسكرية، خاضعًا “بالكامل” لميثاق الأمم المتحدة والقانون الدولي.
وفي حديثه أمام مجلس الأمن التابع للأمم المتحدة، قال وزير الدفاع الباكستاني، خواجة محمد آصف، إن الذكاء الاصطناعي “يجب ألا يصبح أداة للإكراه أو احتكارًا تكنولوجيًا”. وأضاف في نقاش رفيع المستوى حول الذكاء الاصطناعي ضمن بند “صون السلام والأمن الدوليين”: “يجب حظر التطبيقات التي لا تخضع لرقابة بشرية هادفة”.
مخاطر الذكاء الاصطناعي كتقنية مزدوجة الاستخدام
أشار خواجة آصف إلى أن الذكاء الاصطناعي هو أكثر التقنيات المزدوجة الاستخدام أهمية، فهو قادر على تسريع التقدم الاجتماعي والاقتصادي، ولكنه في الوقت نفسه قادر على تعميق أوجه عدم المساواة وزعزعة استقرار النظام الدولي.
وقال لوزراء ورؤساء من جميع أنحاء العالم: “يجب على الدول الالتزام باتخاذ إجراءات تمنع الاستخدام المزعزع للاستقرار، والحوافز الوقائية”. وأضاف أن “الاستخدام غير المنظم وغير المسؤول للذكاء الاصطناعي يتيح حملات التضليل، والعمليات السيبرانية الهجومية، وتطوير أنواع جديدة من الأسلحة”.
تأثير الذكاء الاصطناعي على الحروب المستقبلية
أكد خواجة آصف أن “تسريع تسليح الذكاء الاصطناعي، من خلال أنظمة الأسلحة المستقلة وأنظمة القيادة والتحكم التي تعمل بالذكاء الاصطناعي، يشكل خطرًا جسيمًا”. وفي هذا الصدد، أشار إلى أنه في النزاع الأخير بين الهند وباكستان في شبه القارة الهندية، تم “استخدام ذخائر مستقلة وصواريخ كروز عالية السرعة ذات قدرات مزدوجة للمرة الأولى من قبل دولة مسلحة نوويًا ضد أخرى خلال تبادل عسكري – وهو ما يظهر المخاطر التي يمكن أن يشكلها الذكاء الاصطناعي”.
وأوضح أن هذه التطورات تثير تساؤلات جدية حول مستقبل الحروب، حيث يقلل الذكاء الاصطناعي من عتبة استخدام القوة، مما يجعل الحروب أكثر جدوى سياسيًا وعمليًا، ويقلص وقت اتخاذ القرار، مما يضيق نافذة الدبلوماسية ونزع فتيل الأزمة. وشدد على أن الذكاء الاصطناعي “يطمس حدود المجالات، ويدمج التأثيرات السيبرانية، والحركية، والمعلوماتية بطرق لا يمكن التنبؤ بها”.
دعوات للسيطرة الإنسانية والمساءلة
من جهته، قال الأمين العام للأمم المتحدة، أنطونيو غوتيريش، إن الذكاء الاصطناعي “لم يعد أفقًا بعيدًا – بل هو هنا، يغير الحياة اليومية، والمجال المعلوماتي، والاقتصاد العالمي بسرعة مذهلة”. وحذر من أن الذكاء الاصطناعي “بدون ضوابط، يمكن تسليحه”. وأكد أن “الابتكار يجب أن يخدم الإنسانية – لا أن يقوضها”.
وأكد غوتيريش أن “مصير الإنسانية لا يمكن أن يترك لخوارزمية” وأن “البشر يجب أن يحتفظوا دائمًا بالسلطة على القرارات التي تتعلق بالحياة والموت”. ودعا إلى حظر أنظمة الأسلحة الفتاكة المستقلة التي تعمل بدون سيطرة بشرية، مع وضع صك ملزم قانونًا بحلول عام 2026. وشدد أيضًا على أن أي قرار بشأن استخدام الأسلحة النووية “يجب أن يقع على عاتق البشر – وليس الآلات”.
ضرورة توسيع نطاق الوصول للذكاء الاصطناعي
قالت ييجين تشوي، الزميلة البارزة في معهد ستانفورد للذكاء الاصطناعي الذي يركز على الإنسان، إن التقدم الحالي في الذكاء الاصطناعي يتركز بشكل كبير بين عدد قليل من الشركات والدول. وأضافت: “عندما يكون لدى القليل فقط الموارد اللازمة لبناء الذكاء الاصطناعي والاستفادة منه، فإننا نترك بقية العالم ينتظر عند الباب”.
وحثت الحكومات والمؤسسات الدولية على الاستثمار في مناهج بديلة تتجاوز نماذج الذكاء الاصطناعي الأكبر حجمًا، مشيرة إلى أن الأنظمة الأصغر والأكثر تكيفًا يمكن أن تخفض حواجز الدخول. كما طالبت بتمثيل أقوى للتنوع اللغوي والثقافي، مشيرة إلى أن نماذج الذكاء الاصطناعي الرائدة اليوم “ضعيفة الأداء بالنسبة للعديد من اللغات غير الإنجليزية وتعكس افتراضات ثقافية ضيقة”.
نافذة التنظيم تغلق بسرعة
اختتم الأمين العام للأمم المتحدة كلمته محذرًا من أن النافذة للتنظيم الفعال للذكاء الاصطناعي تغلق بسرعة. وقال: “من السيطرة على الأسلحة النووية إلى سلامة الطيران، ارتفع المجتمع الدولي إلى مستوى التحدي الذي تفرضه التقنيات التي يمكن أن تزعزع استقرار مجتمعاتنا – من خلال الاتفاق على القواعد، وبناء المؤسسات، والإصرار على الكرامة الإنسانية”.
واختتم كلمته قائلاً: “النافذة لإعادة تشكيل الذكاء الاصطناعي – من أجل السلام، من أجل العدالة، من أجل الإنسانية – آخذة في الانغلاق. يجب أن نتحرك دون تأخير”.



