OpenAI askeri alana girdi.
Sadece danışmanlık falan değil, tam gaz bir Pentagon ortaklığı bu — ulusal güvenlik için gizli sınır ötesi yapay zeka modelleri fısıltıları arasında duyuruldu. Son dosyalarda ve Sam Altman’ın laf arasında verdiği ipuçlarında bahsedilen anlaşma, OpenAI teknolojisini savunma sistemlerine pompalayacak. Ama asıl mesele şu: Herkes etik ve misyonlardan bahsediyor, oysa kimse yeterince bağırmıyor — koruma mekanizmaları savaş alanında ayakta kalabilir mi?
Bakın, OpenAI baştan beri uyum vaazları veriyor. O1 önizlemelerini hatırlayın mı? Zararları kendi kendine kontrol eden akıl yürütme zincirleriymiş. Ama AI Now Institute’un baş yapay zeka bilim insanı Heidy Khlaaf her şeyi net ortaya koydu:
“Yüksek riskli kararlar veya gözetim için koruma mekanizmaları açısından, üretken yapay zekanın mevcut mekanizmaları derinlemesine yetersiz; kasıtlı veya kazara nasıl kolayca aşılabildikleri gösterildi. İyi niyetli durumlarda sistemlerini koruyamıyorlarsa, karmaşık askeri ve gözetim operasyonlarında başaracaklarını hiç sanmıyorum.”
Tam isabet. Gördük bunu: Emoji dizeleriyle hapishane kaçışları, rol yapma komut istemleriyle koruma mekanizmalarını anahtar çevirir gibi devre dışı bırakmalar. OpenAI deli gibi yamalar — tamam. Ama askeri? Reddit trolü değil o; ulus-devlet bütçeli düşman aktörler, gerçek zamanlı sıfır-gün açıkları arıyor.
OpenAI’nin Koruma Mekanizmaları Neden Baskı Altında Çöküyor?
Mimariyle başlayalım. GPT’ler gibi üretken yapay zekalar mı? Olasılıklı papağanlar bunlar, dev veri yığınlarında eğitilmiş bir sonraki token’ı tahmin ediyor. Güvenlik mi? Sonradan eklenmiş: RLHF (insan geri bildiriminden pekiştirmeli öğrenme), anayasal yapay zeka — temeli halüsinasyon yapan bir yapıya yamalı bohça. Üstüne yüksek riskli askeri kararlar ekleyin — diyelim drone görüntülerinden hedef tanıma — ve ‘nasıl’ olduğu ortaya çıkar.
Olasılıklı çıktılar belirsizlik demek. Model güven skoru kusar, evet, ama düşmanlar girdi dağılımını bozar. Düşman kamuflajını taklit eden zehirli veri verin? Pat, yanlış pozitifler yağar. Neden? Ölçeklenme yasaları duvara toslar; daha büyük modeller sihirli uyum sağlamaz, eğitim çöplüğündeki önyargıları büyütür. OpenAI’nin o1’i adım adım akıl yürütme zinciri deniyor, ama tiyatro o. Testler gösteriyor ki sofistike saldırılara boyun eğiyor, Anthropic’in kendi kırmızı takım raporlarına göre (evet, rakipler çayı döküyor).
Ama — işin ilginci — OpenAI bunu biliyor. STRRLM makaleleri beklenmedik davranışların kontrolü imkansız olduğunu itiraf ediyor. Peki Pentagon neden? Para, tabii. Savunma dolarları sivil girişim sermayesini ezer geçer artık. Ama misyon sapması kokuyor. Eski şartnamelerini hatırlayın mı? Askeri kullanım yasaktı. Altman geçen yıl “savunma” ihtiyacı diye çevirdi. Güzel numara, ama gözetim savunma değil.
Kimse çekmediği bir ders: Bu internetin doğuşunu andırıyor. DARPA 60’larda ARPANET’i finanse etti, nükleer dayanıklı iletişim için TCP/IP doğurdu. Ticariye döndü? Tabii. Ama erken askeri denetim arka kapılar gömdü — NSA’nın PRISM kökleri gibi. OpenAI-Pentagon? Aynı oyun planı. Savaş için sertleştirilmiş sınır modelleri, sivil ikili kullanımlı teknolojiye gizli kancalarla sızabilir. Komplo değil; tarih.
Pentagon Parası OpenAI’nin Uyum Sorununu Çözer mi?
Kısa cevap: Hayır.
Uzun cevap kötü bir politika brifingi gibi yayılıyor. OpenAI yılda 7 milyar doları sadece hesaplama için yakıyor — TPU’lar, H100’ler göğe yığılmış. Askeri sözleşmeler? Tencereyi tatlandırır, belki Savunma Bakanlığı veri setlerini ince ayar için açar. Ama uyum asıl sorun. Mevcut koruma mekanizmaları — aktivasyon yönlendirme, tartışma yöntemleri — laboratuvar oyuncakları. Gözetime (sınır kameralarında kalabalıkta yüz ayrıştırma) veya kararlara (otonom dronlar hedef seçerken) ölçekle, entropi kazanır.
Neden? Geri bildirim döngüleri parçalanır. Sivil RLHF kalabalık işçilerle zararları yakalar. Askeri? Gizli. Kamu kırmızı takımı yok. Khlaaf tam isabet: İyi niyetliler şimdi kırılıyor. Kazara ihlal haya