Home / Yapay zeka dünyasında OpenAI krizi: Pentagon anlaşmasına tepki yağıyor

Yapay zeka dünyasında OpenAI krizi: Pentagon anlaşmasına tepki yağıyor

OpenAI ve Pentagon Arasında Dev Anlaşma: “Cancel ChatGPT” Akımı Büyüyor

Yapay zeka dünyasında etik tartışmaları alevlendiren yeni bir gelişme yaşandı. OpenAI CEO’su Sam Altman, şirketin Amerika Birleşik Devletleri Savunma Bakanlığı (Pentagon) ile yapay zeka modellerinin kullanımı konusunda resmi bir anlaşmaya vardığını duyurdu. Bu anlaşma kapsamında OpenAI modellerinin, Pentagon’un yüksek güvenlikli gizli ağ sistemlerine entegre edilmesi planlanıyor.

“Yasal Olan Her Amaç İçin” Kullanım Şartı

Yapılan sözleşmenin en dikkat çekici maddesi, Pentagon’un OpenAI sistemlerini “yasal olan her amaç için” kullanabilmesine olanak tanıyan geniş yetki tanımı oldu. Savunma Bakanlığı’nın özellikle talep ettiği bu şart, teknolojinin askeri operasyonlarda kullanım alanını genişletiyor. OpenAI ise bu duruma karşılık, sistemlere dahil edilecek özel teknik güvenlik bariyerleri aracılığıyla teknolojinin şirketin temel güvenlik ilkelerine sadık kalacağını savunuyor.

Kullanıcı Reaksiyonu: 1,5 Milyon İptal İmzası

Anlaşmanın duyurulmasıyla birlikte sosyal medyada dev bir protesto dalgası başladı. Reddit ve X (Twitter) platformlarında hızla yayılan “Cancel ChatGPT” ve “QuitGPT” etiketleri, binlerce kullanıcının aboneliğini sonlandırmasına yol açtı. Kampanyanın merkezi haline gelen “quitgpt.org” adresi üzerinden şu ana kadar 1,5 milyondan fazla kişi, etik gerekçelerle hizmeti kullanmayı bırakacağını beyan ederek imza attı. Bu kitlesel tepkinin OpenAI’ın gelir kalemleri üzerinde ciddi bir baskı oluşturabileceği öngörülüyor.

Sektör Genelinde Etik Belirsizlik

Eleştiriler OpenAI üzerinde yoğunlaşsa da, yapay zekanın askeri ve gözetim amaçlı kullanımına kapı aralayan tek dev şirket OpenAI değil. Sektördeki diğer oyuncuların tutumları şu şekildedir:

Google: Geçtiğimiz yıl iç kurallarında yer alan teknolojinin askeri amaçlı kullanım yasağını kaldırarak Gemini modelini potansiyel savunma projelerine açık hale getirdi.

Amazon: Kullanım belgelerinde net sınırlar çizmek yerine sadece ucu açık bir “sorumlu kullanım” ifadesine yer veriyor.

Anthropic: Rakip şirket Anthropic, askeri sözleşmeleri reddeden etik duruşuyla şu an için kullanıcı övgülerini toplasa da sektördeki genel eğilim askeri entegrasyona doğru kayıyor.

Otonom Silahlar ve Güvenlik Kaygıları

Sam Altman, kararlarını “Dünya karmaşık ve bazen tehlikeli bir yer; tüm insanlığa hizmet etmeye kararlıyız” sözleriyle savunsa da, teknoloji dünyasında endişeler hakimiyetini koruyor. Basit metin sorgularında bile “halüsinasyon” olarak adlandırılan hatalı bilgiler üretebilen yapay zeka sistemlerinin, hedef belirleme veya füze kontrol sistemleri gibi kritik askeri mekanizmalarda kullanılması ihtimali, küresel güvenlik açısından büyük bir tartışma konusu olmaya devam ediyor.

Cevap bırakın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir