تتسابق شركات الذكاء الاصطناعي على عقود البنتاغون والخاسر يواجه مصيرًا مجهولًا

«أوبن إيه آي» و«غوغل» توقّعان و«أنثروبيك» ترفض فتُصنَّف خطرًا على سلسلة الإمداد وتلجأ للقضاء

ماذا؟ وقّعت وزارة الدفاع الأميركية (البنتاغون) عقودًا مع كبرى شركات الذكاء الاصطناعي، «أوبن إيه آي» (OpenAI) و«غوغل» (Google) و«إكس إيه آي» (xAI)، لنشر نماذجها في الشبكات العسكرية. في المقابل، رفضت «أنثروبيك» (Anthropic) شروط البنتاغون التي تسمح باستخدام نماذجها «لجميع الأغراض المشروعة»، فصنّفتها الوزارة «خطرًا على سلسلة الإمداد»، وهو تصنيف يمنع الجهات الفيدرالية من التعامل معها. ردّت «أنثروبيك» بدعويين قضائيتين، وتسعى اليوم (12 مارس) للحصول على أمر وقف مؤقت من محكمة الاستئناف.

لماذا؟ لأن عقود البنتاغون تحوّلت إلى ساحة المعركة الأهم في صناعة الذكاء الاصطناعي. لا يتعلق الأمر بالإيرادات فحسب، رغم أنها تُقدّر بمئات الملايين حاليًا ومليارات مستقبلًا، بل بما تمثله هذه العقود، فهي بوابة المصداقية التي تفتح أبواب كل مؤسسة حكومية وعسكرية حول العالم.

ماذا يعني؟ يعني أن صناعة الذكاء الاصطناعي تقف عند مفترق طرق أخلاقي وتجاري غير مسبوق. من يقبل شروط البنتاغون يكسب السوق المؤسسي العالمي لكنه يفتح الباب لاستخدام أذكى تقنيات البشرية في المراقبة الجماعية والأسلحة المستقلة. ومن يرفض يواجه عقوبات تجارية قد تُهدد وجوده.


لا تُقاس أهمية البنتاغون بحجم العقد الواحد، بل بما يفتحه من أبواب. تُنفق وزارة الدفاع الأميركية أكثر من 800 مليار دولار سنويًا، وهي أكبر ميزانية دفاعية في العالم، ويتعامل معها مئات الآلاف من الموردين والمقاولين حول العالم. حين يوقّع البنتاغون عقدًا مع شركة ذكاء اصطناعي، فإنه يمنحها ما يشبه «ختم الموثوقية»، إشارة لكل حكومة وكل مؤسسة كبرى بأن هذه الشركة جديرة بالثقة على أعلى المستويات الأمنية.

أعلنت «أوبن إيه آي» صفقتها مع البنتاغون في 28 فبراير، وصرّح مديرها التنفيذي سام ألتمان أن الوزارة «أظهرت احترامًا عميقًا للسلامة». تبعتها «غوغل» بتوسيع هادئ لعقودها مع الوزارة، حيث تزوّد الآن 3 ملايين موظف في البنتاغون بوكلاء ذكاء اصطناعي للأعمال غير المصنّفة. كما حصلت «إكس إيه آي» التابعة لإيلون ماسك على عقد مماثل.

دفعت «أنثروبيك» ثمن الرفض حين أصبحت شركة «غير مرغوب فيها». رفضت «أنثروبيك» أن يُستخدم نموذج «كلود» (Claude) في أمرين محددين هما المراقبة الجماعية للمواطنين الأميركيين، والأسلحة المستقلة التي تقتل دون قرار بشري. ردّ البنتاغون بأنه لا يستطيع السماح لشركة خاصة بإملاء كيفية استخدام أدواته في حالات الطوارئ الأمنية.

ما تلا ذلك كان أشبه بعقوبة تجارية. صنّف البنتاغون «أنثروبيك» كـ«خطر على سلسلة الإمداد»، وهو تصنيف يُستخدم عادةً ضد شركات مرتبطة بحكومات معادية كالصين أو روسيا، لا ضد شركة أميركية ترفض شرطًا تعاقديًا. جاءت النتائج فورية، إذ تواصل أكثر من 100 عميل مؤسسي مع الشركة للاستفسار عن التصنيف، وتقدّر «أنثروبيك» خسائرها المحتملة بمليارات الدولارات لعام 2026 وحده.

رفعت الشركة دعويين قضائيتين في 9 مارس، الأولى في محكمة كاليفورنيا الفيدرالية، والثانية في محكمة الاستئناف بواشنطن. تزعم فيهما أن إدارة ترمب انتقمت منها بشكل غير قانوني لموقفها من سلامة الذكاء الاصطناعي، وأن التصنيف ينتهك حقها في التعبير المكفول بالتعديل الأول للدستور.

في تطوّر لافت، قدّمت «مايكروسوفت»، المستثمر الأكبر في «أوبن إيه آي» المنافسة، مذكرة قانونية تدعم موقف «أنثروبيك». كما وقّع نحو 1000 عامل في مجال الذكاء الاصطناعي من «أوبن إيه آي» و«غوغل» و«ديب مايند» عريضة بعنوان «لن نُقسَم» تدعم حق الشركات في وضع حدود أخلاقية لتقنياتها.

انقسم الرأي العام بحدّة. من جهة، انفجرت حركة QuitGPT# بعد صفقة «أوبن إيه آي» مع البنتاغون، فألغى أكثر من 2.5 مليون شخص اشتراكاتهم في «تشات جي بي تي» (ChatGPT)، وقفزت عمليات إلغاء تثبيت التطبيق بنسبة 295 بالمئة في يوم واحد. صعد تطبيق «كلود» إلى المرتبة الأولى في متجر «آبل» الأميركي، وهو ما لم يحدث من قبل. وتُخطط مسيرة مساءلة الذكاء الاصطناعي ليوم 21 مارس في عدة مدن أميركية.

من الجهة الأخرى، يرى كثيرون أن تعاون شركات التقنية مع الجيش «واجب وطني» في ظل التنافس مع الصين وروسيا. ويحتجّ مؤيدو الصفقات بأن رفض التعاون يعني ترك الميدان لنماذج أقل أمانًا أو لتقنيات أجنبية. استقالت كيتلين كالينوسكي، مديرة الروبوتات في «أوبن إيه آي»، احتجاجًا على الصفقة، لكن معظم موظفي الشركة لم يُعلنوا موقفًا.

والسؤال المعلّق هل هذه المقاطعة مستدامة أم موجة عاطفية ستتلاشى؟ الأرقام تقول إن «تشات جي بي تي» لا يزال يملك 900 مليون مستخدم أسبوعيًا، ما يعني أن المقاطعين يمثلون أقل من 0.3 بالمئة من قاعدة المستخدمين.

هنا يكمن جوهر الخطر. حين يقول البنتاغون إنه يريد استخدام نماذج الذكاء الاصطناعي «لجميع الأغراض المشروعة»، فإن هذه العبارة تشمل طيفًا واسعًا يمتد من الأعمال المكتبية البريئة إلى المراقبة الجماعية والأسلحة المستقلة.

لم يعد الأمر نظريًا. أكد الأدميرال براد كوبر أن الجيش الأميركي يستخدم أدوات ذكاء اصطناعي «متقدمة ومتنوعة» في الحرب على إيران، مع تأكيده أن «البشر يتخذون القرارات النهائية». لكن خبراء يُشيرون إلى أن الفجوة بين «المساعدة في معالجة البيانات» و«اتخاذ قرارات القتل» تضيق بسرعة مع تطوّر الذكاء الاصطناعي الوكيلي (agentic AI)، وهي أنظمة تنفذ مهامًا معقدة بشكل مستقل.

تكمن المشكلة في غياب الحدود. «أوبن إيه آي» التي وعدت في ميثاقها التأسيسي بأن تقنياتها «لن تُستخدم لإيذاء البشر»، قبلت شروط البنتاغون المفتوحة. «غوغل» التي انسحبت من مشروع «مايفن» (Project Maven) العسكري عام 2018 بعد احتجاج موظفيها، عادت بهدوء لتزويد البنتاغون بخدمات أوسع. «إكس إيه آي» لم تُعلن أي خطوط حمراء أصلًا.

إذا كانت الشركات الثلاث الكبرى قبلت شروط البنتاغون دون قيود واضحة على المراقبة الجماعية أو الأسلحة المستقلة، و«أنثروبيك»، الشركة الوحيدة التي رفضت، تواجه عقوبات تجارية قاسية، ففالرسالة واضحة، من يضع حدودًا أخلاقية يُعاقَب، ومن يقبل كل شيء يُكافَأ.

يبقى ويبقى السؤال الأخطر، في عالم يتسابق فيه الجميع على عقود البنتاغون، من يضع الحدود بين الذكاء الاصطناعي الذي يُساعد والذكاء الاصطناعي الذي يقتل؟


شرح المصطلحات

سلسلة الإمداد (Supply Chain): شبكة الموردين والشركات التي تزوّد جهة ما بالمنتجات والخدمات. تصنيف «خطر سلسلة الإمداد» يعني أن الحكومة الأميركية ترى أن التعامل مع هذه الشركة يُشكّل خطرًا أمنيًا.

الذكاء الاصطناعي الوكيلي (Agentic AI): أنظمة ذكاء اصطناعي تستطيع تنفيذ سلسلة مهام معقدة بشكل مستقل، تتخذ قرارات، تستخدم أدوات، وتتفاعل مع بيئتها دون تدخل بشري في كل خطوة.

الأسلحة المستقلة (Autonomous Weapons): أسلحة تستطيع اختيار أهدافها والاشتباك معها دون قرار بشري مباشر. تُعرف أيضًا بـ«الروبوتات القاتلة».

التعديل الأول (First Amendment): الجزء من الدستور الأميركي الذي يحمي حرية التعبير، وتستند إليه «أنثروبيك» في دعواها بأن الحكومة عاقبتها على موقفها العلني.

ساعد الذكاء الاصطناعي في إعداد وكتابة هذه المادة.

Author

مقالات ذات صلة