تصاعد الجدل خلال الأيام الماضية بين وزير الدفاع الأمريكي بيت هيغسيث Pete Hegseth, الذي يُشار إلى منصبه باسم وزير الحرب, والرئيس التنفيذي لشركة Anthropic داريو أمودي Dario Amodei, قبل أن يتدخل الرئيس الأمريكي دونالد ترامب ويشن هجوم مباشر على الشركة. فما الذي يحدث بالضبط؟
بدأ الخلاف عندما طالبت وزارة الدفاع الأمريكية شركة Anthropic بإتاحة استخدام نماذجها للذكاء الاصطناعي في نطاق أوسع من التطبيقات العسكرية. تحديدًا, ترفض الشركة السماح باستخدام نماذجها في أنظمة قد تقوم بتحليل أهداف عسكرية واتخاذ قرارات استهداف دون تدخل بشري مباشر. كما طلبت وزارة الدفاع حرية أوسع لاستخدام النماذج في تحليل بيانات ومراسلات بهدف رصد المخاطر, وهو ما تعتبره Anthropic توسعًا قد يقترب من مفهوم المراقبة الجماعية ويتعارض مع الضوابط الديمقراطية التي تؤكد التزامها بها.
في الواقع, تستخدم وزارة الدفاع نماذج Anthropic بالفعل ضمن عقود محددة وضمن نطاق استخدام متفق عليه مسبقًا, لكن الخلاف نشأ عندما حاولت الوزارة توسيع هذا النطاق, وهو ما رفضته الشركة.
تصاعد التوتر مع اقتراب مهلة نهائية حددتها وزارة الدفاع يوم الجمعة لموافقة Anthropic على الشروط الجديدة, مع التلويح بتصنيف الشركة كمخاطر على سلسلة التوريد (Supply Chain Risk), وهو تصنيف قد يمنعها فعليًا من التعاقد مع الجهات الحكومية. لاحقًا, هاجم الرئيس دونالد ترامب الشركة علنًا, وتم توجيه مؤسسات حكومية بوقف أو إنهاء التعامل معها تدريجيًا.
تزامنت هذه الأزمة مع بدء الحرب الأمريكية الإسرائيلية ضد إيران, ما أثار تساؤلات واسعة حول دور تقنيات الذكاء الاصطناعي في النزاعات الحديثة. ورغم تداول بعض التقارير والتكهنات حول استخدام نماذج Claude في سياقات عسكرية, لا توجد تأكيدات رسمية تثبت استخدامها المباشر في عمليات قتالية.
في خضم هذا الجدل, وقّع أكثر من 60 موظف في OpenAI ونحو 300 موظف في Google رسالة مفتوحة تدعم موقف Anthropic, معتبرين أن وضع خطوط حمراء تتعلق بالمراقبة الجماعية والأسلحة المستقلة بالكامل أمر ضروري.
التحول الأكبر حدث عندما أعلن سام ألتمان Sam Altman, الرئيس التنفيذي لشركة OpenAI, توقيع اتفاق مع وزارة الدفاع الأمريكية يسمح باستخدام نماذج GPT ضمن الشبكات المصنفة سرّية. وأوضح ألتمان أن الاتفاق يتضمن ضمانات تتعلق بحظر المراقبة الجماعية الداخلية, والإبقاء على المسؤولية البشرية في استخدام القوة, إضافة إلى بناء طبقة أمان تقنية تضمن التزام النماذج بالسياسات المتفق عليها, مؤكدًا أن الحكومة لن تُجبر الشركة على تنفيذ مهام يرفضها النموذج وفق ضوابطه.
بعد هذا الإعلان, وكردة فعل من المستخدمين, شهد تطبيق ChatGPT موجة حذف ملحوظة, حيث أظهرت تقارير ارتفاع عمليات إزالة التطبيق بنسبة كبيرة وصلت إلى 295% بعد صفقة وزارة الدفاع. في المقابل, صعد تطبيق Claude بسرعة في متجر التطبيقات الأمريكي, متجاوزًا ChatGPT لفترة وجيزة, كما أعلنت Anthropic عن نمو قياسي في التسجيلات اليومية وارتفاع ملحوظ في أعداد المستخدمين. كذلك قامت الشركة بإطلاق ميزة الذاكرة مجانًا لجميع المستخدمين, مع إتاحة استيراد البيانات وتصديرها. في خطوة اعتبرها البعض جذبًا لمن يفكرون في الانتقال من منصات أخرى.
وفي رده على الشركة, أشار وزير الدفاع الأمريكي إلى عمل الوزارة على بناء منتجات حربية, وليس بوتات أكاديمية, حيث أكد على أهمية استجابة نماذج الذكاء الاصطناعي لأي أمر تطلبه الوزارة.
المصادر:
1
2
3
4
5
حول مشكلة Anthropic والبنتاغون وتأثيرها على ChatGPT
4 دقائق للقراءة
مدونة نافذة التقنية مدونة نافذة التقنية – موقع يقدّم شروحات تقنية حديثة حول Windows، Android، الذكاء الاصطناعي، وأدوات المطورين بطريقة سهلة وواضحة للمستخدم العربي.