الذكاء الاصطناعي العسكري تحت المجهر بدءا من اليمن وحرب إيران تكشف فجوة بين الفتك وحماية المدنيين
- ترجمة خاصة الثلاثاء, 24 مارس, 2026 - 05:23 مساءً
الذكاء الاصطناعي العسكري تحت المجهر بدءا من اليمن وحرب إيران تكشف فجوة بين الفتك وحماية المدنيين

[ الذكاء الاصطناعي تحول لأداة في الحروب - صورة بواسطة الذكاء الاصطناعي ]

أظهر تحليل حديث أن الحرب الدائرة مع إيران، إلى جانب الخلاف المتصاعد بين وزارة الدفاع الأمريكية وشركة الذكاء الاصطناعي Anthropic، كشفت خللا عميقا في طريقة تطوير واستخدام الذكاء الاصطناعي العسكري، حيث تهيمن أولويات السرعة والفتك على حساب أدوات حماية المدنيين والالتزام بالقانون الدولي.

 

وذكر تحليل نشره موقع Just Security أن التطورات الأخيرة تسلط الضوء على اختلال في توازن الاستثمارات والاهتمام المؤسسي، إذ يتم توجيه الموارد بشكل كبير نحو تعزيز القدرات القتالية والعملياتية، بينما يتم تهميش التقنيات التي يمكن أن تضمن الامتثال للقانون الدولي الإنساني أو تقلل الأضرار على المدنيين.

 

وأشار التقرير الذي ترجمه الموقع بوست إلى أن النقاش العام حول الذكاء الاصطناعي العسكري يركز بشكل أساسي على المخاطر المرتبطة بالأنظمة المستقلة والأسلحة الذكية، لكنه يغفل الحاجة إلى تطوير "رؤية إيجابية" لكيفية استخدام هذه التقنيات لتعزيز الحماية القانونية والإنسانية خلال النزاعات.

 

وقال الموقع إن الهجمات الأمريكية والإسرائيلية على إيران تمثل تصعيدا آخر في فترة من النشاط العسكري الأمريكي المتوسع بسرعة من اليمن ونيجيريا إلى الكاريبي وفنزويلا، والآن المواجهة المباشرة مع طهران.

 

وأشار إلى هذه العمليات تجري في وقت يتجه فيه الذكاء الاصطناعي بشكل متزايد إلى العمليات العسكرية، بما في ذلك في إيران، بدءا من تحليل الاستخبارات والتخطيط العملياتي إلى تطوير الأهداف ودعم اتخاذ القرار.

 

وأضاف أن هذا الاتجاه يعكس "توجهاً أعمق" داخل المؤسسات العسكرية، حيث أصبحت الفعالية العملياتية والقدرة على تحقيق التفوق العسكري هي المعايير الأساسية لتطوير تقنيات الذكاء الاصطناعي، بدلا من إدماج معايير الحماية والضبط القانوني ضمن هذه المنظومات.

 

ويأتي هذا التقييم في وقت يشهد توترًا بين وزارة الدفاع الأمريكية وشركة Anthropic، التي حاولت فرض قيود على استخدام نماذجها في التطبيقات العسكرية، خاصة تلك المتعلقة بالأسلحة المستقلة أو الاستخدامات التي قد تنتهك القوانين الإنسانية.

 

ويرى التحليل أن هذا الخلاف يعكس إشكالية أوسع تتعلق بمن يحدد حدود استخدام الذكاء الاصطناعي في الحروب: الحكومات أم الشركات المطورة للتكنولوجيا.

 

وبحسب التقرير، فإن الحرب مع إيران تمثل نموذجًا واضحًا لهذا التحدي، حيث يتم استخدام تقنيات متقدمة في بيئة عملياتية معقدة وسريعة، ما يزيد من المخاطر المرتبطة باتخاذ قرارات آلية قد تؤثر على المدنيين والبنية التحتية الحيوية.

 

وأشار إلى أن تطور هذه التقنيات يسير في اتجاه واحد، مدفوعا بالاستثمار العسكري، ما يعني أن القدرات التي يتم تطويرها تعكس أولويات التمويل والطلب العملياتي، وليس بالضرورة الاعتبارات الإنسانية أو القانونية.

 

ويخلص التحليل إلى أن معالجة هذا الخلل تتطلب إعادة توجيه الاستثمارات والسياسات نحو تطوير ذكاء اصطناعي وقائي، يهدف إلى تقليل المخاطر على المدنيين وتعزيز الامتثال للقانون الدولي، بدل التركيز الحصري على تحسين القدرات القتالية.

 

كما يشدد على ضرورة صياغة إطار واضح يحدد القيم التي يجب أن تخدمها هذه التقنيات، بما يضمن ألا تتحول إلى أدوات تزيد من تعقيد النزاعات أو توسع نطاق الأضرار.


التعليقات