البنتاجون يلوح بقطع العلاقات مع شركة Anthropic بسبب خلافات مستمرة حول مستقبل الأسلحة المستقلة وآثارها الأمنية

تشتعل أزمة حادة بين وزارة الدفاع الأمريكية (البنتاغون) وشركة Anthropic، المتخصصة في الذكاء الاصطناعي، وهو ما يحمل في طياته احتمالية تغير العلاقة بين وادي السيليكون والمؤسسة العسكرية بصورة جذرية. تدور الأزمة حول مطالب الشركة التكنولوجية بوضع قيود صارمة تمنع استخدام نماذجها في تطوير أسلحة ذاتية التشغيل أو في عمليات المراقبة الجماعية، وهو ما يعتبره الجيش الأمريكي عائقًا أمام تفوقه الاستراتيجي في عالم الازدحام التكنولوجي.

تجاذب المصالح بين الأمن والتكنولوجيا

وفقًا لتقرير من موقع “The Decoder” استنادًا إلى مصادر موثوقة، فإن البنتاغون يدرس إمكانية إنهاء شراكته مع Anthropic إذا استمرت الشركة في رفض توفير “وصول غير مقيد” لنماذجها الرائدة مثل Claude. في الوقت ذاته، تشير التقارير إلى أن شركات منافسة مثل OpenAI وGoogle أبدت قابلية أكبر للتعاون مع وزارة الدفاع، حيث وافقت على تعديل بعض الحواجز المعتادة في العقود العسكرية.

نزاع أخلاقي: تفوق عسكري أم مسؤولية

تُسلط هذه المواجهة الضوء على معضلة أخلاقية رئيسية في عصر الذكاء الاصطناعي، تسعى من خلالها الشركات التكنولوجية إلى تحقيق “الذكاء الاصطناعي الآمن”، في حين يسعى الجيش الأمريكي لدمج أحدث التقنيات للحفاظ على تفوقه العسكري. هذا النزاع قد ينهي التعاون بين الشركات الناشئة والجيش، مما سيؤدي لظهور تحالفات جديدة بين القوى التكنولوجيا والحكومات.

موقف Anthropic وعواقبه

تشترط Anthropic ضمانات صارمة تمنع استخدام تقنياتها في تطوير أسلحة مستقلة أو في المراقبة الداخلية، بينما يطالب البنتاغون بإتاحة مرونة كاملة تحت ذرائع “قانونية”. هذا الوضع قد يعزل Anthropic عن منافسيها الذين يتطلعون للفوز بعقود دفاعية ضخمة، مما قد يؤثر سلبًا على حصتها السوقية وفرصها في الحصول على التمويل في المستقبل.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *