نشر معهد دراسات الأمن القومي «الإسرائيلي» (INSS) مادةً بعنوان “عقيدة الذكاء الاصطناعي أولًا لدى البنتاغون وتداعياتها على الحروب الحديثة: دروس من الصراع مع إيران” للكاتبة هاداس لوربر بتاريخ 19 مارس 2026، استهلّتها بتساؤلٍ محوري: كيف تتجلّى السياسة الأمريكية الجديدة، التي تُعلي من شأن الذكاء الاصطناعي عنصرًا أساسيًا في التسلسل القيادي، وجمع المعلومات الاستخباراتية، وتخطيط العمليات المُعقّدة، في ساحة المعركة؟ وما الدروس المستفادة في إسرائيل؟
وتتناول الكاتبة في هذا السياق التحول المتسارع في اعتماد الولايات المتحدة على الذكاء الاصطناعي كركيزة مركزية في بنية القرار العسكري، وانعكاسات ذلك على طبيعة الحروب الحديثة، مستندةً إلى تجربة المواجهة مع إيران كنموذج تطبيقي. وفيما يلي ترجمة خاصة للنص:
في السنوات الأخيرة تحوّل دمج الذكاء الاصطناعي في الأنظمة الأمنية من مجرد أداة لدعم اتخاذ القرار إلى بنية تحتية استراتيجية تُشكّل مسار الحرب، وصار جزءًا من هذا التوجه، ويُمثّل تبنّي البنتاغون عقيدة “الذكاء الاصطناعي أولًا” تحولًا مفاهيميًا مهمًا: انتقالًا من دمج تدريجي لأنظمة الذكاء الاصطناعي إلى نهج شامل؛ إذ يُصبح الذكاء الاصطناعي عنصرًا أساسيًا في التسلسل القيادي، وجمع المعلومات الاستخباراتية وتحليلها، وتخطيط العمليات متعددة القطاعات.
مبدأ «الذكاء الاصطناعي أولًا» للبنتاغون:
تبنّت وزارة الحرب الأمريكية في الأشهر الأخيرة مفهومًا استراتيجيًا يهدف إلى جعل الذكاء الاصطناعي عنصرًا أساسيًا في العمليات العسكرية، ويستند مبدأ “الذكاء الاصطناعي أولًا” إلى افتراض أن الميزة الاستراتيجية في الحروب المُستقبلية ستُستمد إلى حد كبير من قدرة الدول على دمج الخوارزميات المُتقدمة في صميم أنظمة صنع القرار العسكري.
ووفقًا لاستراتيجية البنتاغون في مجال الذكاء الاصطناعي، يُنظر إلى التنافس في هذا المجال بوصفه جزءًا من التنافس الجيوسياسي الأوسع بين القوى العظمى، وفي هذا الإطار، تسعى الولايات المتحدة جاهدةً إلى الحفاظ على ما يُعرف في الوثيقة بـ”الهيمنة العسكرية للذكاء الاصطناعي”، بل وتوسيعها، وهي تفوّق عسكري يعتمد على مزيج من الابتكار التكنولوجي والبيانات العملياتية وقطاع الذكاء الاصطناعي المدني المُتقدم، وبناءً على ذلك، تُوجه هذه الاستراتيجية القوات الدفاعية الأمريكية لتصبح “قوة قتالية قائمة على الذكاء الاصطناعي”، مع تسريع التجارب على النماذج المتقدمة، وإزالة العوائق البيروقراطية أمام دمج التقنيات الجديدة، وإعطاء الأولوية لميزة غير مُتكافئة في مجالي البيانات وقوة الحوسبة.
وتؤكد الوثيقة أن الولايات المتحدة تتمتع بمزايا هيكلية فريدة في هذا المجال، تشمل بيئة ابتكار رائدة، وقطاعًا تكنولوجيًا متقدمًا، وأسواق رأس مال تدعم تطوير تقنيات رائدة، بالإضافة إلى قواعد بيانات عملياتية تراكمت على مدى عقود من النشاط العسكري والاستخباراتي، ويهدف الجمع بين هذه المزايا إلى تمكين الولايات المتحدة من البقاء مُتقدمة على منافسيها في سباق التسلح الخوارزمي.
ويُعدّ دمج الذكاء الاصطناعي في عملية صنع القرار العملياتي – بدءًا من معالجة المعلومات الاستخباراتية وصولًا إلى تصميم أنظمة قتالية مُعقّدة – عنصرًا أساسيًا في هذا المفهوم، وجزءًا من خارطة الطريق الاستراتيجية؛ إذ حُددت عدد من المشاريع الرائدة التي تهدف إلى إظهار الوتيرة الجديدة لتطبيق تقنيات الذكاء الاصطناعي، تشمل هذه المشاريع أنظمة إدارة المعارك القائمة على الذكاء الاصطناعي، وتطوير قدرات تنسيق أسراب الأنظمة غير المأهولة، والاستخدام المُكثّف لمحاكاة العمليات القائمة على الذكاء الاصطناعي في تصميم الأنظمة العسكرية.
ولا يقتصر تطبيق هذا المفهوم على البيانات الاستراتيجية فحسب، فقد بدأ البنتاغون بنشر منصات مُخصصة لاستخدام الذكاء الاصطناعي ضمن الأنظمة الأمنية، مثل GenAI.mil، وهي منصة آمنة تُمكّن من دمج النماذج التوليدية وأدوات التحليل في الشبكات المُصنّفة وغير المُصنّفة، وتهدف هذه الخطوة إلى توسيع نطاق الوصول إلى أدوات الذكاء الاصطناعي لملايين الموظفين العسكريين والحكوميين، ودمج قدرات الذكاء الاصطناعي في عمليات العمل اليومية للنظام الأمني.
وتُعمِّق هذه العقيدة فهمًا أساسيًا، هو أن سرعة معالجة المعلومات وتقصير دورات اتخاذ القرار – من المستشعر إلى القائد- ستصبح عاملًا حاسمًا في النزاعات المستقبلية، وفي هذا السياق، يُنظر إلى الذكاء الاصطناعي على أنه عامل مُضاعف للقوة يسمح له بالتعامل مع الحجم الهائل للمعلومات في ساحة المعركة الحديثة.
الذكاء الاصطناعي يدعم تسريع العمليات:
كان دمج الذكاء الاصطناعي في الأنظمة الأمنية في البداية يقتصر بشكل أساسي على مجالات الصيانة التنبؤية، وتحليل المعلومات الاستخباراتية، والدعم الإداري، إلاّ أنه في إطار مفهوم “الذكاء الاصطناعي أولًا”، يتوسع دور هذه الأنظمة لتصبح أداةً تُسهم في تسريع العمليات؛ فقد باتت النماذج المتقدمة قادرةً على تحليل كميات هائلة من البيانات الواردة من مختلف أجهزة الاستشعار، وأنظمة الاستخبارات، ومصادر المعلومات المفتوحة، واستخلاص رؤى منها في الوقت الفعلي، وتُمكّن هذه القدرات القادة من تحديد أولويات الأهداف، ودراسة سيناريوهات العمليات المختلفة، وإجراء تقييمات للوضع بسرعة فائقة مقارنةً بعمليات التحليل البشري التقليدية، وهذا التطور يُغيّر طبيعة صنع القرار العسكري، فبدلًا من أن تقتصر وظيفة الأنظمة على الدعم التحليلي يُصبح الذكاء الاصطناعي عنصرًا فاعلًا يُعزز عمليات التخطيط والإدارة لأنظمة القتال المُعقّدة.
استخدام الذكاء الاصطناعي في الصراع الإيراني:
يُقدم الصراع الأمريكي الإيراني مثالًا ملموسًا على تطبيق مفهوم “الذكاء الاصطناعي أولًا” في العمليات الميدانية خلال الضربات على أهداف إيرانية، أفادت التقارير أن الجيش الأمريكي استخدم أنظمة الذكاء الاصطناعي، بما في ذلك نموذج “كلود” من شركة أنثروبيك؛ لتحليل المعلومات الاستخباراتية وتحديد الأهداف وإجراء محاكاة عملياتية، ووفقًا لتقارير إعلامية أمريكية دمجت القيادة المركزية الأمريكية (سنتكوم) هذا النموذج مع الأسلحة التقليدية، بما في ذلك صواريخ توماهوك والطائرات الشبحية والطائرات المُسيّرة المُزوّدة بتقنية الذكاء الاصطناعي، ساعد هذا النظام في معالجة كميات هائلة من البيانات الواردة من أنظمة استشعار متنوعة في الوقت الفعلي، مما قلّص الوقت اللازم لتحليل المعلومات الاستخباراتية، ووفّر رؤى عملياتية قيّمة، كما استُخدم الذكاء الاصطناعي لمحاكاة سيناريوهات افتراضية، مما مكّن مُخطّطي العمليات من دراسة خيارات العمل المُختلفة في وقت قصير نسبيًا، تُبرز هذه القدرات إمكانات الذكاء الاصطناعي في تسريع عمليات صُنع القرار في المواقف القتالية المُعقّدة.
بين ساحة المعركة ووادي السيليكون، الجدل الأخلاقي والقانوني:
يُصاحب التبني المتسارع لأنظمة الذكاء الاصطناعي في منظومة الدفاع الأمريكية خلافات كبيرة بين الحكومة وشركات التكنولوجيا؛ فقد عارضت شركة أنثروبيك- التي زوّدت النموذج المُستخدم في العمليات القتالية- بعض مطالب البنتاغون بإزالة آليات الحماية المُتعلّقة باستخدامات مثل الأسلحة ذاتية التشغيل وأنظمة المراقبة واسعة النطاق، ورفضت على وجه الخصوص إزالة جميع تدابير السلامة اللازمة لإتاحة النموذج للجيش في أي استخدام قانوني، وجادلت الشركة بأن أنظمة الذكاء الاصطناعي غير موثوقة بما يكفي لتشغيل أسلحة ذاتية التشغيل بالكامل، وأن استخدام الذكاء الاصطناعي للمراقبة الجماعية للمدنيين غير مشروع أخلاقيًا وتنظيميًا، ولذلك وضعت “خطًا أحمر” لهذه المطالب، في المقابل، أصدر البنتاغون إنذارًا نهائيًا لرفع هذه القيود، بل هدد بتصنيف أنثروبيك على أنها “تشكل خطرًا على سلسلة التوريد” إذا لم تستجب، وهي خطوة غير مألوفة.
تعكس هذه الخلافات توترات أوسع نطاقًا بين اعتبارات الأمن القومي والقضايا الأخلاقية والقانونية والحوكمة في مجال الذكاء الاصطناعي، وفي قطاع التكنولوجيا نفسه نشأت نقاشات داخلية، بل اعتراضات من الموظفين على بعض الاستخدامات العسكرية لأنظمة الذكاء الاصطناعي.
الآثار الاستراتيجية، تحسّبًا لحرب خوارزمية:
يُمثّل استخدام أنظمة الذكاء الاصطناعي في النزاعات العسكرية مرحلة جديدة في تطور الحروب الحديثة، فبينما كانت أنظمة الذكاء الاصطناعي تُستخدم سابقًا أداة مُساعدة في المقام الأول، أصبحت اليوم عاملًا مُضاعفًا للقوة، يتيح معالجة المعلومات على نطاق وسرعة لا يُمكن للأنظمة البشرية وحدها تحقيقهما، ومع ذلك، يُثير هذا التكامل تساؤلات مُعقّدة بشأن المساءلة والرقابة والأطر القانونية؛ فكلّما زاد تأثير أنظمة الذكاء الاصطناعي في القرارات العملياتية – بما في ذلك القرارات المُتعلقة باستخدام القوة – زادت الحاجة إلى تعديلات في القانون الدولي وقواعد الاشتباك وآليات المساءلة.
الآثار السياسية والأمنية على «إسرائيل»:
تُظهر التجربة الأمريكية أن الدمج المنهجي للذكاء الاصطناعي في صميم العمليات العسكرية يُغيّر قواعد اللعبة في ساحة المعركة، وبالنسبة لـ”إسرائيل”، التي تتمتع بميزة كبيرة في مجال الابتكار الأمني، فإن لهذا الأمر عددًا من الآثار الاستراتيجية.
أولًا: يتطلب الأمر تحولًا من مفهوم تطوير تقنيات الذكاء الاصطناعي المُنفصلة إلى مفهوم شامل مماثل لعقيدة “الذكاء الاصطناعي أولًا” الأمريكية؛ إذ يُدمج الذكاء الاصطناعي بشكل منهجي في سلسلة القيادة، وعمليات معالجة المعلومات الاستخباراتية، والتخطيط العملياتي مُتعدد القطاعات، ويتطلب هذا التحول تكاملًا أعمق بين مجتمع الأمن والصناعات الدفاعية وقطاع التكنولوجيا المتقدمة المدني، إلى جانب الاستثمار في البنية التحتية للبيانات وقدرات الحوسبة المتقدمة.
ثانيًا: في ضوء التسارع العالمي لسباق التسلّح في مجال الذكاء الاصطناعي، يجب على “إسرائيل” تعزيز التعاون الاستراتيجي مع الولايات المتحدة في هذا المجال، ويمكن أن يشمل هذا التعاون البحث والتطوير، والتكامل بين أنظمة الذكاء الاصطناعي التشغيلية، وتعميق الحوار الاستراتيجي حول الاستخدام المسؤول للذكاء الاصطناعي في الأنظمة العسكرية.
أخيرًا: بالإضافة إلى الفوائد العملياتية، يُثير دمج أنظمة الذكاء الاصطناعي في الحروب قضايا قانونية وأخلاقية مُعقّدة، وبإمكان “إسرائيل”، التي تتبوأ مكانة رائدة في مواجهة التهديدات الأمنية والتكنولوجية، أن تؤدي دورًا محوريًا في صياغة أطر الحوكمة والمعايير الدولية للاستخدام المسؤول للذكاء الاصطناعي في الأنظمة الأمنية، مع الحفاظ على تفوقها التكنولوجي والعملياتي.
ملخص:
تعكس عقيدة “الذكاء الاصطناعي أولًا” التي يتبناها البنتاغون تحولًا جذريًا في مفهوم الولايات المتحدة للحرب، فلم يعد يُنظر إلى الذكاء الاصطناعي أداة تكنولوجية مُكمّلة، بل بنية تحتية استراتيجية تُشكل طريقة تخطيط الجيوش وإدارة أنظمتها العسكرية، وتُظهر المواجهة مع إيران كيف بدأ هذا المفهوم يتبلور على أرض الواقع، ومع ازدياد اندماج الذكاء الاصطناعي في سلسلة القيادة، وتجميع المعلومات الاستخباراتية، والتخطيط العملياتي، يتشكل واقع جديد تتلاشى فيه الحدود بين التقدير البشري ودعم القرار الخوارزمي، وتصبح أكثر ديناميكية ومرونة، بالنسبة لـ”إسرائيل”، يُمثل هذا فرصة وتحديًا في آنٍ واحد؛ فمن الضروري التطوير، ليس فقط تطوير قدرات مُحدّدة للذكاء الاصطناعي، بل تبني نهج شامل يدمج أنظمة الاستخبارات والقيادة والقتال، وإنشاء بنية تحتية مُتطورة للبيانات وقوة الحوسبة، وفي الوقت نفسه، يجب على “إسرائيل” تعزيز شراكتها الاستراتيجية مع الولايات المتحدة، وتعزيز تأثيرها في المعايير الدولية للاستخدام الآمن للذكاء الاصطناعي العسكري، وبهذه الطريقة ستتمكن “إسرائيل” من الحفاظ على تفوقها التكنولوجي والعملياتي مع الحفاظ على شرعيتها، والاستعداد لعصر يصبح فيه الذكاء الاصطناعي قوة استراتيجية مُضاعفة في ساحة المعركة.
على أي حال، فإن كيفية تطوّر العلاقات بين المؤسسات الأمنية وصنّاع السياسات وقطاع التكنولوجيا ستحدد إلى حد كبير قواعد اللعبة في عصر الحرب القائمة على الذكاء الاصطناعي.