من حليف إلى خطر : أنثروبيك تحت تصنيف البنتاغون غير المسبوق

تيلي ناظور : نوفل سنوسي
في خطوة غير مسبوقة، صنّفت وزارة الدفاع الأمريكية شركة Anthropic الأمريكية رسميًا كـخطر على سلاسل التوريد، لتصبح أول شركة أمريكية تحصل على هذا التصنيف الذي يُخصص عادة للكيانات الأجنبية المرتبطة بأعداء الولايات المتحدة.
يأتي هذا القرار بعد خلاف حاد استمر أشهرًا بين الشركة و البنتاغون حول قيود استخدام نموذجها الذكي Claude داخل المؤسسات العسكرية.
فتمسكت Anthropic بسياساتها الصريحة التي تمنع استخدام تقنياتها في تطوير الأسلحة الذاتية القاتلة بالكامل أو في برامج المراقبة الجماعية على نطاق واسع داخل الأراضي الأمريكية، معتبرة أن هذه الحدود ضرورية لضمان الاستخدام الأخلاقي و المسؤول للذكاء الاصطناعي.
غير أن وزارة الدفاع ترى في هذه القيود تدخلاً من شركة خاصة في قراراتها التشغيلية، إذ تؤكد أن الجيش يجب أن يتمتع بحرية استخدام التقنية لـجميع الأغراض القانونية دون قيود مفروضة من مورد خارجي، مما قد يعرض الأمن القومي للمخاطر أو يحد من كفاءة العمليات العسكرية.
و نتيجة لذلك، أبلغت الوزارة الشركة رسميًا بهذا التصنيف الذي أصبح ساري المفعول فورًا، و منحت الهيئات الحكومية و المتعاقدين معها مهلة تصل إلى ستة أشهر لإزالة Claude من أنظمتها المرتبطة بالعقود الدفاعية، مع التأكيد على أن التصنيف يقتصر وفق القانون على الاستخدام المباشر ضمن عقود وزارة الدفاع.
بالمقابل، أعلنت Anthropic، عبر بيان صادر عن الرئيس التنفيذي داريو أمودي، نيتها الطعن في القرار أمام القضاء، معتبرة أنه غير سليم قانونيًا و أن نطاقه محدود جدًا مقارنة بما يُروَّج له، إذ لا يمنع المتعاقدين من استخدام Claude في أعمال أخرى غير مرتبطة مباشرة بالبنتاغون.
و بهذا التصعيد، تبرز مواجهة متزايدة بين شركات الذكاء الاصطناعي الرائدة وةالمؤسسة العسكرية الأمريكية، خاصة مع إصرار الإدارة الحالية على تعزيز القدرات الدفاعية و الهجومية بالاعتماد على التقنيات المتقدمة، مما ينذر بمزيد من التوترات في المرحلة المقبلة حول من يملك السلطة النهائية في تحديد حدود استخدام الذكاء الاصطناعي في المجال الأمني.



