SIPRI: Askeri yapay zeka istikrar ve caydırıcılık için önemli riskler oluşturuyor

SIPRI: Askeri yapay zeka
istikrar ve caydırıcılık için önemli riskler oluşturuyor
Stockholm Uluslararası Barış Araştırmaları Enstitüsü (SIPRI), askeri yapay zekanın hızla ilerlemesinin, özellikle de nükleer sistemlere potansiyel entegrasyonu, stratejik istikrar ve yerleşik caydırıcılık uygulamaları için önemli riskler oluşturduğu uyarısı. Bu endişelere rağmen, şu anda YZ-nükleer bağlantı noktasının özel zorluklarını ele almak için özel bir yönetişim çerçevesi mevcut değildir. Mevcut girişimler öncelikle nükleer karar verme üzerinde insan kontrolünü sağlamaya odaklanmıştır.
SIPRI Çin ve Asya Güvenlik Programı Araştırmacısı Fei Su, SIPRI Kitle İmha Silahları Programı Araştırma Görevlisi Vladislav Chernavskikh ve SIPRI Kitle İmha Silahları Programı Direktörü Dr. Wilfred Wan’ın oluşturduğu ekip tarafından yürütülen “Yapay Zeka ve Nükleer Silahların Kesişme Noktasında Yönetişimin Geliştirilmesi” başlıklı çalışmada, “Daha geniş anlamda askeri yapay zekanın yönetişimine ilişkin devlet öncülüğünde bir dizi girişim bulunuyor” denildi ve şu noktaların altı çizildi:
“Bunlar, nükleer silahlarda yapay zeka kullanımını ele almak için uyarlanabilir; ancak, bunları uygulamak kolay olmayacaktır. Bu nedenle, konuşmayı 'döngüdeki insan' kavramının ötesine genişletmeye ve hedeflenen yönetişim önlemlerini geliştirmeye ihtiyaç vardır. Gelecekteki tartışmalar, gerekli insan kontrolünün kesin seviyesini ve derecesini araştırabilir ve nükleer ve ilgili sistemlerde yapay zeka entegrasyonunun hem kapsamı hem de türü için net kırmızı çizgiler belirleyebilir.”
Yapay zeka yeteneklerindeki hızlı gelişmelerin, nükleer güçler de dahil olmak üzere, askeri bağlamlarda uygulanabilirliğini keşfetme çabalarına hükümet yatırımlarını yönlendirdiğine işaret edilen çalışmada, “Yapay zeka yeteneklerinin ordu tarafından ne ölçüde benimseneceği tartışılmaya devam ediyor, ancak, nükleer silah sistemlerinde potansiyel faydaları vardır. Buna, erken uyarı ve istihbarat, gözetleme ve keşif, nükleer komuta, kontrol ve iletişim ve teslimat sistemlerinin yanı sıra, karşı kuvvet potansiyeli olan konvansiyonel sistemler de dahildir. Bununla birlikte, yapay zekanın bu sistemlerde kullanılması caydırıcılık uygulamaları üzerinde bir etkiye sahip olacak ve stratejik öngörülebilirliği ve istikrarı alt üst etme potansiyeline sahip olacaktır” denildi ve şu uyarılara yer verildi:
“Nükleer risklerin azaltılması tüm devletlerin ortak çıkarına olsa da, yapay zeka ve nükleer silahlar arasındaki bağlantıya özel olarak uyarlanmış etkili yönetişim çerçeveleri oluşturma konusunda herhangi bir tartışma yapılmamıştır. Askeri operasyonlarda yapay zeka kullanımına ilişkin daha geniş yönetişim tartışmaları, öncelikle emniyet, güvenlik ve sorumluluk konularına odaklanmıştır; bu kaygıların yapay zeka-nükleer bağlamındaki tartışmaları da şekillendirmesi muhtemeldir. Bununla birlikte, tartışmalar, özellikle bilgi ve iletişim teknolojisi ve uzay gibi diğer kritik teknolojiler ve alanlarla olan bağlantıları göz önüne alındığında, nükleer kuvvetlerin kendine özgü zorluklarına henüz etkili bir şekilde uyarlanmamıştır.”
Askeri yapay zeka yeteneklerinin hızla yayılmasına ve savaş alanlarında giderek daha fazla kullanılmasına rağmen, askeri yapay zekanın yönetiminde ilerleme sınırlı kalıyor ya da özellikle nükleer silahlarda uygulanmasını çevreleyen tartışmalarda hiç bulunmuyor. Bununla birlikte, askeri yapay zekanın yönetişimine yönelik mevcut yaklaşımlar, koordineli önlemler yoluyla ele alınabilecek ortak endişe alanlarını ortaya koyuyor.
Askeri yapay zekanın yönetişim girişimleri ve önerilen önlemler, dört temel ortak kaygıyı ele almayı amaçlıyor:
-çok paydaşlı katılım yoluyla farkındalığı artırmak ve kırmızı çizgileri ve uluslararası yasalara uyumu netleştirmek;
-sorumluluk sağlamak ve anlamlı insan müdahalesi kapasitesini korumak;
-veri güvenliğini ele almak ve yapay zeka sistemlerinin güvenilir performansını sağlamak için güvenlik önlemleri uygulamak;
-dış kaynaklardan gelen potansiyel tehditleri azaltmak için güvenlik önlemleri uygulamak.
Bunların tümünün, nükleer güçlerle ilgili olduğu vurgulanan çalışmada, “Ancak, bu özel bağlam için bazıları yukarıda vurgulanan önlemler daha da detaylandırılabilir” denilerek, şöyle devam edildi:
“Bu arada, nükleer güçlerde yapay zeka kullanımının yönetişimini ilerletmek için önemli siyasi ve teknik zorluklar devam ediyor. Düzenleyici çerçeveler yapay zeka gelişmelerine ayak uydurmakta zorlanmakta ve özellikle yapay zekanın nükleer silah sistemlerine nasıl entegre edildiğine ilişkin doğrulama zorlukları merkezi olmaya devam ediyor. Nükleer silah sahibi olmayan devletleri, uzman toplulukları ve özel sektörü dahil etmek çok önemli olsa da, nükleer kuvvet yapıları hakkındaki sınırlı bilgileri katkılarını kısıtlayabilir. Esasen, karmaşık jeopolitik ortam, çok taraflı ve çok paydaşlı bir yaklaşıma ulaşmanın önünde ek engeller oluşturuyor. Yapay zeka entegrasyonuna yönelik kısıtlamalar, nükleer silahlı devletler tarafından caydırıcılık yeteneklerini potansiyel olarak zayıflattığı şeklinde algılanabilir. Bu da 'döngüde bir insan' bulundurmaya odaklanan taahhütlerin ötesine geçme çabalarını caydırabilir.
“Bununla birlikte, uygun insan kontrolü seviyesinin korunması, yapay zeka-nükleer bağlantı noktasında, merkezi bir endişe olmaya devam ediyor. İnsan gözetiminin önemi konusunda artan fikir birliği ile gelecekteki tartışmalar, yapay zeka sistemlerinde gerekli olan insan kontrolünün kesin seviyesini ve derecesini belirlemeye doğru kayabilir. Özellikle, yapay zekanın daha geniş nükleer karar verme ortamındaki rolünü sınırlandırarak, bu değişim, istikrarı baltalamamasını veya tırmandırıcı riskler yaratmamasını sağlamak için yapay zekanın nükleer sistemlere entegrasyonunun hem kapsamı hem de türü için kırmızı çizgiler belirleme ve iletme fırsatı sağlayacaktır. Bu tartışmaların temel odak noktalarından biri, yapay zeka-nükleer bağlantı noktasındaki belirli zorlukları ele almak için kapsamlı teknik parametreler ve normlar setlerinin belirlenmesi ve geliştirilmesini içerebilir.
“Mevcut yönetişim çabalarının yapay zekanın nükleer kuvvetlere entegrasyonu ile ilgili riskleri ele almaya nasıl yardımcı olabileceğinin değerlendirildiği çalışmada, bu alana özgü devlet öncülüğündeki girişimlerin sınırlı olduğu kabul edilerek, ayrıca yapay zekanın askeri kullanımları için seçilen yönetişim çerçevelerini genel olarak incelendi ve yapay zeka-nükleer bağlantı noktasında yönetişimle ilgili unsurları tanımlandı. Bu amaca yönelik, devlet öncülüğündeki yönetişim yaklaşımları ve bu girişimlerde yer alan operasyonel önlemlerin üzerinde durulan çalışmada, özellikle de, mevcut önlemlerdeki boşluklar tanımlanarak, yapay zeka-nükleer yönetişimde ilerlemeyi engelleyebilecek zorluklar da araştırıldı ve özellikle devlet kurumlarına, ileriye dönük bazı potansiyel yollar önerildi.”
(Stockholm, 24 Mart 2025)