أصدر وزير الدفاع الأميركي قراراً يعتبر شركة أنثروبيك عامل خطر على سلسلة التوريد، وهو إجراء يراه كثيرون خطوة حاسمة داخل قلب البنتاغون.

خلف هذا التصنيف يكمن صراع مبادئ؛ حيث رفضت أنثروبيك ورئيسها التنفيذي داريو أمودي إزالة الضمانات الأخلاقية من نموذج Claude، وتمسكتا برفض استخدام الذكاء الاصطناعي في المراقبة الجماعية للأميركيين أو في توجيه أسلحة ذاتية التشغيل بالكامل، وهو ما اعتبرته إدارة ترامب عائقاً أمام التفوق العسكري الأميركي وصنفت الشركة كتهديد للأمن القومي يمنع المتعاقدين العسكريين من استخدام تقنياتها في مشاريع دفاعية.

في المقابل، بينما أُخرجت أنثروبيك من الباب، دخلت OpenAI من النافذة؛ إذ أعلنت وزارة الخارجية اعتماد نماذج OpenAI كأداة سيادية رئيسة، في صفقة وصفتها التقارير بأنها انتهازية وذكية، ووافقت OpenAI على دمج أنظمتها في الشبكات السرية للبنتاغون والخارجية مع مرونة عالية في تلبية الاحتياجات التشغيلية، ما جعلها العقل الرقمي الجديد للدبلوماسية والدفاع الأميركي.

حرب الشرق الأوسط

وتشير التقارير إلى أن البنتاغون كان يستخدم نموذج Claude من أنثروبيك عبر منصة Palantir لتحليل البيانات الاستخباراتية وتحديد الأهداف في إيران، وأن قرار استبداله بـ OpenAI في منتصف المعركة يعكس رغبة واشنطن في استخدام ذكاء اصطناعي أكثر هجومية وأقل تقييداً بالقيود الأخلاقية لتسريع ما يعرف بسلسلة القتل أو Kill Chain من رصد الهدف إلى تدميره.

كما يهدف اعتماد الخارجية الأميركية OpenAI إلى استخدام ما يُسمّى بالدبلوماسية التنبؤية؛ فبينما تتوتر العلاقات مع إيران، تسعى واشنطن لاستخدام هذه النماذج لتحليل التحركات الإيرانية والروسية وتوقع ردود الفعل في مضيق هرمز، ليمنح ذلك المفاوض الأميركي تفوقاً معلوماتياً غير مسبوق.

حرب البيانات ضد المسيرات

في مواجهة أسراب المسيرات الإيرانية Shahed-136 التي تستهدف مراكز البيانات، يحتاج البنتاغون إلى ذكاء اصطناعي يستطيع معالجة ملايين البيانات في ثوانٍ لتحديد الاعتراض، وبإقصاء أنثروبيك من السيطرة يتأكد سيطرة القيادة العسكرية على الأسلحة الرقمية دون اعتراضات برمجية من الشركات المصنعة.

انعكاسات استراتيجية

يعكس القرار أن الذكاء الاصطناعي صار يتبع العقيدة العسكرية وأنه في حرب 2026 لن يكفي وجود صاروخ أسرع بل يحتاج الأمر لخوارزمية جريئة تتخذ القرار عند لحظة الصفر.

شاركها.
اترك تعليقاً