ABD’nin Yapay Zeka Çıkmazı: Anthropic Yasağı ve Pentagon’un İran Operasyonu
Modern harp sahalarının dijitalleşmesiyle birlikte yapay zeka teknolojileri stratejik birer silah haline geldi. Ancak ABD hükümeti ile teknoloji sektörü arasında yaşanan son gelişmeler, askeri gereklilikler ile siyasi kararlar arasındaki derin uçurumu gözler önüne serdi. ABD Başkanı Donald Trump’ın Anthropic şirketini ve Claude yapay zeka modelini federal düzeyde yasaklamasından kısa bir süre sonra, Amerikan ordusunun İran’a yönelik hava operasyonlarında halen bu sistemleri kullandığı ortaya çıktı.
Savunma Bakanlığı ve Etik Bariyer Krizi
Krizin fitili, ABD Savunma Bakanı Pete Hegseth’in Anthropic’ten Claude modeli üzerindeki güvenlik kısıtlamalarını kaldırmasını talep etmesiyle ateşlendi. Pentagon, yapay zekanın “tüm yasal askeri amaçlar” için sınırsız erişime açılmasını isterken, Anthropic CEO’su Dario Amodei bu talebi etik gerekçelerle geri çevirdi. Amodei, sistemin kitle gözetimi veya insan denetimi dışındaki tamamen otonom ölümcül silah sistemlerinde kullanılmasına izin vermeyeceklerini açıkladı.
Bu kararın ardından Beyaz Saray, Anthropic’i “tedarik zinciri riski” ilan ederek devlet kurumlarında kullanımını yasakladı. Ancak bu siyasi hamlenin sahadaki askeri operasyonlara yansıması beklenenden çok daha farklı oldu.
İran Operasyonunda Claude’un Rolü ve CENTCOM Raporları
Wall Street Journal ve Axios tarafından paylaşılan raporlara göre, 28 Şubat tarihinde başlayan ve İran’daki kritik hedeflere yönelik düzenlenen ABD-İsrail ortak hava harekatında Pentagon, Claude modelinden vazgeçemedi. ABD Merkez Komutanlığı (CENTCOM); B-2 hayalet uçakları ve insansız hava araçlarının yer aldığı bu operasyonda şu alanlarda Claude’un işlem gücünden yararlandı:
-
İstihbarat Analizi: Elde edilen verilerin hızlıca işlenmesi ve değerlendirilmesi.
-
Hedef Belirleme: Kritik noktaların yapay zeka destekli analizlerle doğrulanması.
-
Savaş Alanı Simülasyonu: Olası senaryoların anlık olarak test edilmesi.
Yönetimin “derhal bırakma” talimatına rağmen Pentagon’un bu teknolojiyi kullanmaya devam etmesinin arkasındaki ana sebep, yapay zekanın askeri ağlara altı aylık bir geçiş sürecini gerektirecek kadar derinlemesine entegre olmasıdır. Ocak ayındaki Venezuela operasyonunda da benzer bir rol üstlenen sistemin bir anda devre dışı bırakılmasının, sahadaki operasyonel kapasiteyi tehlikeye atacağı değerlendirildi.
OpenAI ve Savaş Bakanlığı Arasındaki Yeni Anlaşma
Anthropic’in etik sınırlar nedeniyle hükümetle köprüleri atması, sektördeki en büyük rakibi OpenAI için stratejik bir boşluk yarattı. OpenAI CEO’su Sam Altman, Pentagon ile hızlı bir anlaşma imzalayarak, ChatGPT tabanlı modellerin ABD Savunma Bakanlığı’nın (yeni adıyla Savaş Bakanlığı) gizli ağlarında kullanılmasına yeşil ışık yaktı. Bu durum, teknoloji dünyasındaki rekabetin artık doğrudan savunma sanayii eksenine kaydığını tescilledi.
Yapay zeka teknolojilerinin ulusal güvenlik çıkarlarıyla çarpıştığı bu yeni dönemde, siyasi kararlar ile askeri gerçeklikler arasındaki denge yeniden kuruluyor. Görünen o ki, devasa askeri mekanizmalar yapay zekanın sunduğu analitik üstünlüğe bir kez adapte olduğunda, kağıt üzerindeki yasakların sahada uygulanması operasyonel riskler nedeniyle oldukça güçleşiyor.





