تقارير

أزمة أنثروبيك–البنتاغون: صدام سياسي بعد رفض الشركة استخدام الذكاء الاصطناعي في الحروب

اشتعلت الخلافات بين شركة الذكاء الاصطناعي الأمريكية الناشئة أنثروبيك ووزارة الدفاع الأمريكية البنتاغون بعد رفض الشركة السماح باستخدام نماذجها، المعروفة باسم Claude، في العمليات القتالية المباشرة أو تطوير أسلحة ذاتية التشغيل.

وقد تركز النزاع على العملية العسكرية التي نفذتها الولايات المتحدة في فنزويلا لاعتقال الرئيس السابق نيكولاس مادورو، والتي استخدمت خلالها نماذج الشركة دون موافقة إدارة أنثروبيك.

أدى هذا الصدام إلى فرض الإدارة الأمريكية عقوبات على الشركة واعتبارها “خطرًا على الأمن القومي”، بينما سارعت شركات منافسة مثل OpenAI و xAI لملء الفراغ والموافقة على شروط الاستخدام العسكري بلا قيود، ما يضع مستقبل الذكاء الاصطناعي في قلب تحولات استراتيجية كبيرة.

الخلفية التاريخية للشراكة

بدأت علاقة أنثروبيك بالبنتاغون عام 2024، عندما تم دمج نماذج الشركة مع منصة الذكاء الاصطناعي الخاصة بشركة Palantir والبنية التحتية السحابية الحكومية التي توفرها أمازون.

أتاح هذا النظام للجيش الأمريكي تحليل كميات هائلة من البيانات الاستخباراتية، والتخطيط للعمليات العسكرية، واتخاذ قرارات دقيقة في الوقت المناسب.

وفي يوليو 2025، منح البنتاغون أنثروبيك عقدًا بقيمة 200 مليون دولار ضمن برنامج أوسع لتطوير “الذكاء الاصطناعي الوكيل” (Agentic AI) الذي يمكّن الأنظمة من تنفيذ مهام معقدة واتخاذ قرارات مستقلة في مواقف حرجة.

عملية فنزويلا: نقطة التحول

كانت العملية العسكرية في يناير 2026، التي استهدفت اعتقال مادورو، هي الشرارة التي قلبت العلاقة إلى صراع. إذ استخدمت القوات الأمريكية نماذج Claude لتحليل المعلومات الاستخباراتية وتحديد الأهداف، ما أثار مخاوف أنثروبيك بشأن استخدام أدواتها في عمليات قتالية مباشرة، مخالفًا لسياساتها الداخلية.

تداعيات الصدام

أعاد النزاع طرح أسئلة حاسمة حول أخلاقيات الذكاء الاصطناعي ودوره في الحروب الحديثة، ويظهر جليًا كيف يمكن للتكنولوجيا أن تصبح “جنديًا رقميًا” في ساحات المعارك.

كما يفتح الباب أمام مراجعة السياسات العسكرية الأمريكية بشأن استخدام الذكاء الاصطناعي وفرض قيود أخلاقية على تطوير أنظمة مستقلة لاتخاذ قرارات مصيرية.

مقالات ذات صلة

زر الذهاب إلى الأعلى