الذكاء الإصطناعي في الحرب

في الأشهر التي سبقت الضربات، يُقال إن كلود، الذكاء الإصطناعي الذي طورته شركة أنثروبيك، هو من قام بالعمل التحليلي المكثف.

استخدم المخططون العسكريون هذا النموذج لمعالجة كميات هائلة من البيانات الاستخباراتية لتحديد أكثر من 500 هدف بالغ الأهمية.

كان لكلود دور محوري في حساب التوقيت الأمثل لضربات استهداف كبار المسؤولين الإيرانيين، مما ضمن تحقيق أقصى قدر من عنصر المفاجأة التكتيكية من خلال الهجمات الجوية والبحرية المتزامنة.

تجلّت دقة التخطيط في كيفية تجاوز الضربات لأنظمة الدفاع الجوي الحديثة. فباستخدام كلود لتنفيذ ملايين الطلعات الجوية المحاكاة، تمكن التحالف من رسم خرائط البصمات الكهرومغناطيسية للرادار الإيراني ونشر أصول الحرب الإلكترونية بدقة متناهية.

سمح هذا المستوى من الأتمتة بتقليص دورة اتخاذ القرار، حيث تم تحويل بيانات القياس عن بُعد عبر الأقمار الصناعية في الوقت الفعلي إلى مسارات طيران قابلة للتنفيذ في ثوانٍ معدودة، وهو إنجاز كان مستحيلاً سابقاً على الأفراد وحدهم.

وجدت شركة أنثروبيك، التي تأسست في الأصل على مبدأ “الذكاء الاصطناعي الدستوري”، نفسها مؤخرًا في قلب عاصفة سياسية.

على الرغم من دورها في التخطيط الأولي لضربات فبراير، وصلت الشركة إلى طريق مسدود مع البنتاغون قبل ساعات فقط من بدء العملية.

تمحور الخلاف حول مطالبة وزارة الحرب الأمريكية بالوصول غير المقيد إلى قدرات كلود في الاستهداف الذاتي والمراقبة الجماعية وهي استخدامات اعتبرتها أنثروبيك انتهاكًا لضوابط السلامة الأساسية لديها.

في 27 فبراير 2026، أصدر ترامب أمرًا تنفيذيًا يُلزم جميع الوكالات الفيدرالية بالتوقف الفوري عن استخدام تقنية أنثروبيك، مصنفًا الشركة على أنها “تشكل خطرًا على سلسلة التوريد”.

سلطت هذه الخطوة الضوء على التناقض المتزايد بين الالتزامات الأخلاقية للشركات الناشئة في مجال التكنولوجيا والمتطلبات النفعية لحكومة منخرطة في حرب نشطة.

أدى إصرار البنتاغون على عدم أحقية الشركات الخاصة في تحديد شروط العمليات العسكرية إلى خلاف علني، حيث اتهم المسؤولون الشركة بتقويض الأمن القومي في وقت الأزمة، وستستمر القضية القانونية لسنوات.

يواجه البنتاغون خيارًا حاسمًا بين الإطارين الأخلاقيين لشركتي أنثروبيك وأوبن إيه آي.

تعتمد أنثروبيك على الذكاء الاصطناعي الدستوري، الذي يُخضع النموذج لـ”دستور” مكتوب لضمان بقاء مخرجاته ضمن حدود أمان ضيقة، وهذا ما يروق للمخططين العسكريين الساعين إلى منطق قابل للتنبؤ ومُقيد بقواعد محددة.

في المقابل، اتجهت أوبن إيه آي نحو نهج أكثر نفعية، حيث خففت مؤخرًا حظرها على التطبيقات “العسكرية والحربية” لدعم مهام الأمن القومي.

بينما تركز أنثروبيك على ضبط النفس الذاتي، تُشدد أوبن إيه آي على التطبيق واسع النطاق والنشر السريع، مما يُقدم مفاضلة بين الأمان المُحكم والقوة الاستراتيجية المطلقة.

برزت مخاوف بالغة بشأن عجز الذكاء الإصطناعي عن التشكيك في الأساس القانوني للضربة الاستباقية.

فبينما يشير مصطلح “الذكاء الاصطناعي الدستوري” إلى قواعد البرمجة الداخلية، افتقرت النماذج إلى الصلاحية اللازمة للطعن في دستورية العملية بموجب الدستور الأمريكي.

عالجت هذه الأنظمة الجوانب اللوجستية للهجوم دون تقييم ما إذا كان الإجراء التنفيذي قد تجاوز صلاحيات الكونغرس في إعلان الحرب.

ونتيجة لذلك، وفّر الذكاء الاصطناعي غطاءً من الشرعية الرياضية لضربة لا تزال مثيرة للجدل قانونيًا، مُعطيًا الأولوية للنجاح العملياتي على حساب التدقيق القانوني المحلي أو التداعيات الأخلاقية لسياسة الضربة الاستباقية.

تُقدّم دقة الضربات التي نُفّذت في 28 فبراير/شباط دليلاً واضحاً على استخدام الولايات المتحدة، وربما إسرائيل أيضاً، لتقنيات التحليل التنبؤي المتقدمة.

توقعت محاكاة “سلم التصعيد”، التي أُجريت باستخدام نماذج ذكاء اصطناعي متطورة، أن ضربة على منطقتي كيشواردوست وباستور ستستهدف القيادة بنجاح، مع شلّ مؤقت لهيكل قيادة الحرس الثوري.

منطقتا كيشواردوست وباستور موقعان حقيقيان في وسط طهران، ويُشاع على نطاق واسع أن شارع باستور (أو منطقة باستور) هو موقع المقر الرسمي للمرشد الأعلى آية الله علي خامنئي، وتُشير بعض التقارير إلى أن كيشواردوست مجاورة أو متداخلة مع المنطقة.

أكدت مصادر موثوقة متعددة (الغارديان، فرانس 24، أسوشيتد برس عبر منافذ إعلامية مختلفة، ووكالة فارس للأنباء) وقوع صواريخ وانفجارات في هاتين المنطقتين تحديداً خلال الضربات.

يُدمج نظام كلود بشكلٍ عميق في أنظمة وزارة الدفاع الأمريكية لتحليل المعلومات الاستخباراتية، وتحديد الأهداف، والتخطيط العملياتي، والمحاكاة (بما في ذلك تصعيد العمليات).

كان من الممكن أن تمنع هذه القيود نظام كلود من محاكاة بعض السيناريوهات عالية المخاطر، مثل الاستهداف الذاتي أو العمليات التي تعتمد بشكل كبير على المراقبة، مما يُجبر المخططين على إيجاد حلول بديلة أو استخدام بدائل أقل كفاءة.

على سبيل المثال، في سيناريو افتراضي لهجوم مضاد بصاروخ باليستي عابر للقارات طرحه محللو وزارة الدفاع، جادلت شركة أنثروبيك بأن نظام كلود غير موثوق به بما يكفي دون إشراف بشري، مُسلطةً الضوء على احتمالية حدوث تأخيرات أو رفض بسبب هذه القيود في التخطيط الحساس للوقت.

مع أنه لم يُثبت بشكل قاطع أن هذه القيود أثرت بشكل كبير على الضربات، إلا أن الأدلة المستقاة من المواجهة الحادة بين وزارة الدفاع وشركة أنثروبيك تجعل من الممكن جدًا أن تكون هذه القيود قد فرضت عقبات عملية، مما دفع وزارة الدفاع إلى الرد بقوة والتحول إلى شركة أوبن إيه آي.

يواجه البنتاغون الآن تحديًا تقنيًا خطيرًا في محاولته الانتقال من نظام أنثروبيك إلى نظام أوبن إيه آي، وذلك عقب توقيع عقد حكومي جديد في يوم الضربات.

تُبرهن أحداث فبراير 2026 على دخولنا عصر الحرب الذكية، إلا أن المساءلة عن نتائجها لا تزال غير واضحة. فإذا ما حسب نموذج ذكاء اصطناعي احتمالية ضربة قاضية “نظيفة” تُسفر مع ذلك عن خسائر فادحة في صفوف المدنيين، فإن التسلسل القيادي التقليدي سيتعرض لضغط هائل.

يتزايد خطر لجوء القادة البشريين إلى ما يُنظر إليه على أنه موضوعية الآلة، مما يُنذر بمستقبل يُعامل فيه قرار خوض الحرب كحقيقة رياضية محضة لا كخيار أخلاقي.

ومع تصاعد الصراع مع إيران بشكل غير متوقع، يُؤدي الاعتماد على هذه الأنظمة إلى نوع جديد من عدم الاستقرار.

ويكشف الانتقال من مزود ذكاء اصطناعي إلى آخر في خضم القتال عن ثغرة في البنية التحتية الرقمية للإمبراطوريات الحديثة.

لقد تجاوز تسليح نماذج اللغة الضخمة وتيرة تطوير المعايير الدولية، تاركًا العالم في حيرة من أمره بشأن ما يخبئه المستقبل.