Teknoloji

Silahlı Robotlar: Bilimin Gölgesinde Ölümcül Teknolojiler

Bir zamanlar yalnızca distopik bilimkurgu hikâyelerinde karşımıza çıkan silahlı robotlar, artık dünyanın dört bir yanında test edilen, sahaya sürülen ve tartışılan gerçek askeri araçlara dönüşmüş durumda.

Silahlı Robotlar: Bilimin Gölgesinde Ölümcül Teknolojiler

Yeni nesil silah sistemleri arasında tam otonom kara araçları, yapay zekâ kontrollü insansız hava araçları (İHA'lar) ve hedef tespiti yapabilen deniz dronları öne çıkıyor.

Peki, bu teknolojik gelişmelerin bilimsel temeli nedir?  Ne tür araştırmalar yapılıyor? Ve en önemlisi, bu gelişmelerin hukuki ve etik sınırları nasıl çiziliyor?

Silahlı robotlar genel olarak şu üç kategoride sınıflandırılır:

  • Uzaktan Kontrollü Silahlı Sistemler (RCWS): İnsan operatör kontrolünde çalışan ve genellikle güvenli mesafeden düşmanı hedef alan sistemlerdir. Mevcut birçok İHA bu sınıfa girer.
  • Yarı Otonom Sistemler: İnsan komutu olmadan çevre analizi ve hedef tespiti yapabilir ancak öldürücü kararlar için insan onayı gerekir.
  • Tam Otonom Silah Sistemleri (LAWS – Lethal Autonomous Weapon Systems): Hiçbir insan müdahalesi olmadan hedef seçip imha edebilen sistemlerdir. Bilimsel, etik ve politik tartışmalar bu sınıf üzerinde yoğunlaşmaktadır.

Son yıllarda MIT, Carnegie Mellon ve ETH Zürih gibi araştırma merkezlerinde yapılan çalışmalar, otonom silahların “karar verme” sürecinde kullanılan algoritmaların doğruluğu ve güvenilirliği üzerine odaklanıyor. Özellikle makine öğrenimi ve derin öğrenme teknikleri, hedef tanıma, dost-düşman ayrımı ve çatışma ortamı analizinde belirleyici rol oynuyor.

2024'te Nature Machine Intelligence dergisinde yayımlanan bir araştırmada, sinir ağı tabanlı bir İHA’nın, karmaşık bir şehir ortamında dost-sivil-ayrımı yapma başarısının yüzde 86 olduğu gösterildi. Ancak bu oran, ölümcül sonuçlar doğurabilecek hatalar için hâlâ yüksek bir risk barındırıyor.

Sensör füzyonu, yani farklı sensör türlerinin (IR, radar, LIDAR, optik kamera) entegre edilmesiyle sağlanan çevre algısı da sistemin karar kalitesini doğrudan etkiliyor. Silahlı robotların “görme ve anlama” kapasiteleri bu teknolojilere bağlı olarak gelişiyor.

Bilimsel Uyarılar: Hata Payı Felaket demek

Cambridge Üniversitesi’ndeki Centre for the Study of Existential Risk (CSER), 2023’te yayımladığı raporda, silahlı yapay zekâ sistemlerinin kontrol dışına çıkma ihtimaliyle ilgili çarpıcı bir uyarıda bulundu. Raporda, düşük kaliteli veri setleriyle eğitilen otonom sistemlerin “ayrım yapmadan saldırı” riski taşıdığı ve bu durumun insan hakları ihlallerine yol açabileceği belirtildi.

Benzer şekilde, ABD Ulusal Bilimler Akademisi (NAS) 2022 yılında, “predictability” (öngörülebilirlik) kavramı üzerinden silahlı yapay zekâların sahadaki davranışlarını inceleyen bir çalışmada, sistemlerin beklenmedik çevresel değişimlere verdikleri tepkinin insanın müdahalesi olmadan öngörülemez olabileceğini ortaya koydu.

Tarihsel Gelişim ve Temel Tanımlar

Robotik Silahların Kökeni: İlk örnekler, II. Dünya Savaşı'ndaki basit radyo kontrollü bombalar (Alman Goliath mayınları) ve Vietnam Savaşı'nda kullanılan *MQ-1 Predator* öncesi insansız hava araçları.

2000'ler: ABD'nin insansız hava araçları (İHA'lar) ile hedef avlama (ör: Reaper drone'ları).

2010'lar: Otonom karar verebilen sistemler (ör: İsrail'in Harpy drone'u, hedefi kendi seçebiliyor).

2020'ler: Yapay zeka destekli sürü drone'ları (ör: Türkiye'nin Kargu kamikaze drone'u) ve insansız kara araçları (ABD'nin Jaguar robotu).

 

Gelecek Projeksiyonları ve Riskler

Yapay Zeka Entegrasyonu: Makine öğrenmesi ile hedef tanıma yeteneği artacak (ör: Çin'in Sharp Claw robotu).

Siber Tehditler: Hacklenen silahlı robotlar (ör: 2017'de Rus hackerlerın İHA'ları ele geçirmesi).

Asimetrik Savaş: Terör örgütlerinin 3D yazıcıyla üretilmiş drone'ları (ör: IŞİD'in modifiye drone'ları).

Ekonomik Etki: İnsansız sistemler, askeri bütçeleri azaltabilir ancak işsizliğe yol açabilir.

Ülke Örnekleri ve Stratejiler

  • ABD: Project Maven (yapay zeka ile görüntü analizi), DARPA'nın otonom tank projeleri.
  • Rusya: Marker robotu, Poseidon nükleer denizaltı drone'u.
  • Çin: Blowfish A2 silahlı drone, insansız deniz araçları.

Silahlı robotlar, savaşın doğasını değiştiriyor ancak "Terminatör sendromu" (kontrolün kaybedilmesi) riski de artıyor. 2023'te Boston Dynamics ve diğer robotik şirketleri, silahlı robot üretmeyeceğini açıklasa da askeri yatırımlar sürüyor. Belki de Isaac Asimov'un Robot Yasaları yeniden gündeme gelecek...

ABD, Rusya, İsrail ve Çin, silahlı robot ve otonom silah sistemleri konusunda küresel liderler arasında. Her ülkenin son dönem projeleri, stratejileri ve yasaklanan sistemleri farklılık gösteriyor. İşte detaylı bir karşılaştırma:

ABD: Yapay Zeka ve Otonom Sürüler 

Son Projeler:

  • XQ-58A Valkyrie: Yapay zeka destekli, insansız savaş uçağı. 2023'te lider drone (anned drone) olarak F-35'lerle test edildi.
  • Project Replicator: 2024'te duyuruldu. Binlerce otonom hava/deniz/kara aracından oluşan sürüler hedefleniyor.
  • Jaguar UGV: Zırhlı, silahlı kara robotu. Mayın temizleme ve keşif rolünde.
  • Sea Hunter: Otonom deniz drone'u. Çin denizaltılarını izlemek için kullanılıyor.

Pentagon destekli Ghost Robotics, silahlı dört ayaklı robotları sınır güvenliğinde test ediyor. Boston Dynamics gibi şirketler bu tür kullanım alanlarına mesafeli durduğunu açıklasa da Ghost Robotics’in test sahneleri uluslararası etik tartışmaları ateşledi.

Yasaklananlar: Ölümcül otonom silahlar (LAWS) tamamen yasak değil, ancak insan kontrolü zorunlu (2023 Pentagon politikası). Kimyasal/biyolojik silah taşıyan robotlar yasak (Uluslararası Sözleşmeler).

Rusya: Asimetrik ve Nükleer Robotlar 

Son Projeler:

  • Marker UGV: 2023'te Ukrayna'da test edildi. 5 adet kamikaze drone taşıyabilen kara robotu.
  • Poseidon: Nükleer başlıklı otonom denizaltı drone'u. 2027'de hizmete girecek.
  • Lancet Kamikaze Drone: Ukrayna'da etkili oldu. Yapay zeka ile hedef tanıma özelliği var.
  • Uran-9: Silahlı kara robotu. Ukrayna'da etkisiz kaldı (iletişim sorunları).

Uran-9 adlı insansız kara aracı Suriye’de test edildi. Ancak 2018’de yayımlanan askeri raporlar, sistemin hedef tespitinde büyük hatalar yaptığını ve operatör komutlarını geç algıladığını ortaya koydu.

Yasaklananlar: Nükleer silahlı robotlar (Poseidon) uluslararası tepki çekti, ancak yasaklanmadı. Sivil hedeflere otonom saldırı (Ukrayna'da iddialar var), BM tarafından kınandı.

İsrail: İHA ve Anti-Personel Robotlar

Son Projeler:

  • Harpy NG: Radara gizlenmiş otonom kamikaze drone'u. 2023'te Azerbaycan'a satıldı.
  • Dogo: Kapalı alan savaş robotu. Terörle mücadelede kullanılıyor (Gazze'de aktif).
  • Iron Beam: Lazer tabanlı hava savunma. 2024'te Hamas roketlerine karşı test edildi.
  • Rex MK II: Otonom asker taşıyıcı. Sınır devriyelerinde kullanılıyor.

Yasaklananlar:

Otonom karar veren anti-personel mayınlar (Ottowa Sözleşmesi). İsrail imzalamadı ancak kullanmıyor.

Çin: Sürü Drone'ları ve Deniz Robotları

Son Projeler:

  • Sharp Claw: Hafif silahlı kara robotu. Yüz tanıma özelliği ile protesto kontrolünde kullanılıyor.
  • Blowfish A2: 12 adet füze taşıyabilen silahlı helikopter drone.
  • JARI-USV: Otonom deniz aracı. Sonar ve torpido ile donatıldı.
  • Sürü Drone'ları: 2023'te 1000+ drone'u senkronize eden yapay zeka gösterisi yapıldı.

Yasaklananlar: Otonom silahların Tayvan Boğazı'nda kullanımı ABD tarafından protesto edildi, ancak yasak yok. Kitle imha silahı taşıyan robotlar (BM tarafından yasak).

Ülke En Güçlü Yönü Zayıf Noktası Yasaklı Sistemler
ABD Yapay zeka ve sürü teknolojisi Yüksek maliyet LAWS (kısmen kısıtlı)
Rusya Nükleer robotlar Elektronik savaş zafiyeti Nükleer drone (tepki çekti)
İsrail Anti-personel robotlar Uluslararası baskı Otonom mayınlar (kullanmıyor)
Çin Sürü drone'ları Veri güvenliği sorunları Kitle imha silahları

Hangi ülke daha önde?

ABD yapay zekada, Çin sürü teknolojisinde, İsrail anti-personel sistemlerde lider.

En tehlikeli proje? Rusya'nın Poseidon'u (nükleer tsunami yaratabilir).

Türkiye nerede?

Türkiye'nin savunma sanayisindeki teknolojik atılımları hem abartılıyor hem de küçümseniyor. Gerçek ise bu ikisi arasında bir yerde: ASELSAN ve HAVELSAN, yapay zekâ destekli İKA’lar (insansız kara araçları) ve SİHA’larda hedef tanıma yazılımları geliştiriyor. Her ne kadar insan kontrolünde çalışsalar da sistemlerin otonomi seviyesi her geçen yıl artmakta. Türkiye'nin Kargu ve Alpagu drone'ları ile İsrail seviyesine yakın. 

 Savunma Bütçesi Kıyaslaması (2024)

Ülke Savunma Bütçesi (USD) GSYİH'den Pay Türkiye ile Kıyas
Türkiye ~$15.8 milyar %2.1 Referans
ABD $886 milyar %3.5 56x büyük
Çin ~$230 milyar %1.6 14.5x büyük
İsrail ~$24.3 milyar %4.5 1.5x büyük
Çarpıcı Gerçek: Türkiye, ABD'nin %1.8'i kadar bütçeyle benzer teknolojileri (İHA'lar, elektronik harp) geliştiriyor. Bu, verimlilik anlamına geliyor.  Türkiye, kısıtlı bütçeyle maksimum verim alıyor. Ancak projeler için gerekli çiplerin çoğunun ithal olması ciddi sorun.  Kritik teknolojilerdeki dışa bağımlılığın aşılması içinde ekonomik güç önemli.
Öte yandan  Türkiye, GSYİH'sinin %1.1'ini AR-GE'ye ayırıyor (ABD %3.4, İsrail %4.9). Türkiye Savunma sanayisi bu açığı özel sektör iş birlikleriyle kapatmaya çalışıyor.
Yapay Zekânın Savaş Hukuku Sınavı

Birleşmiş Milletler, 2014’ten bu yana LAWS konusunu tartışıyor. 2023 sonunda Cenevre’de düzenlenen toplantıda, tam otonom silah sistemlerinin yasaklanması veya insan kontrolü altında tutulması gerektiğine dair bir dizi öneri gündeme geldi. Ancak kararlar bağlayıcı değil.

Oxford Üniversitesi’nden Prof. Lucy Suchman’ın ifadesiyle: “Yapay zekâ sistemleri hesap veremez. Oysa savaşta hayat ve ölüm kararlarının sorumluluğu olmalıdır.” Bu düşünce, "insan denetimi" ilkesinin neden vazgeçilmez olduğunu ortaya koyuyor.

Mevcut uluslararası insancıl hukuk (IHL), insanın karar mekanizmasında olduğu silah sistemlerini düzenlemek için yazıldı. Oysa tam otonom sistemler, bu çerçeveye sığmıyor. Harvard Law School tarafından hazırlanan bir çalışmada, otonom robotların savaş suçlarına karışması durumunda “komuta zinciri” sorumluluğunun belirsiz olacağı vurgulandı. Kimin yargılanacağı sorusu hâlâ cevapsız.

Ayrıca, algoritmaların ayrım gözetme, orantılılık, zorunluluk gibi temel savaş ilkelerine uyumu da tartışmalı. Silahlı bir robotun “teslim olmak isteyen düşmanı” tanıyıp tanımayacağı sorusu dahi bugün hâlâ çözümsüz.

Etik ve Hukuki Tartışmalar

Ölümcül Otonom Silahlar (LAWS): Birleşmiş Milletler, 2013'ten beri bu sistemlerin yasaklanmasını tartışıyor. Ana endişeler:

Hedef Hatası: Sivil kayıplar (ör: 2020'de Libya'da otonom drone'nin sivil hedef alması).

Sorumluluk: Kim yargılanacak? Yazılım mühendisi mi, komutan mı?

Silahlanma Yarışı: Çin-ABD-Rusya arasında otonom silah yarışı.

Uluslararası Anlaşmalar: 2022'de ABD, "yapay zekanın askeri kullanımına dair politikalar" yayınladı, ancak bağlayıcılık yok.

Bilim Kurguya Ne Kadar Yakınız?

2025 yılı itibarıyla yapılan bilimsel projeksiyonlar, silahlı robotların kısa vadede hibrit (yarı otonom) sistemlerde sınırlı kalacağını, tam otonom sistemlerin yaygınlaşmasının ise siyasi ve etik engellere takılacağını öngörüyor.

Ancak askeri rekabet dinamikleri, bu süreci hızlandırabilir. Çin, ABD ve Rusya gibi ülkeler, “ilk geliştiren avantaj sağlar” mantığıyla otonom silah Ar-Ge’sine büyük bütçeler ayırıyor. Bu da robotik savaşın denetimsiz bir yarışa dönüşebileceği endişesini artırıyor.

Bilim İlerlemeden Hukuk Geride Kalıyor

Silahlı robot teknolojilerinin gelişimi kaçınılmaz bir bilimsel gerçeklik. Ancak bu gelişim, eş zamanlı bir etik, hukuki ve toplumsal çerçeveyle desteklenmediğinde geri dönülemez felaketlere zemin hazırlayabilir.

Bir robotun “öldür” komutu alması yalnızca bir kod satırına bakıyor olabilir. Ancak bu satırın yazıldığı bağlam, insanlığın vicdanı, bilimi ve sorumluluğuyla şekillenmelidir.

Tunç Deniz - Mistikalem.com

Yorumlar