İsrail yapay zeka araçlarını Gazze’de silaha dönüştürüyor
Galatasaray Üniversitesi Hukuk Fakültesi Bilişim ve Teknoloji Hukuku Anabilim Kısmı Öğretim Üyesi Dr. Osman Gazi Güçlütürk, İsrail’in Gazze’de yapay zeka kullanımını ve bu durumun türel boyutunu AA Tahlil için kaleme aldı.
***
Yapay zeka teknolojisi, her geçen gün yeni uygulama alanlarıyla ve sunduğu vaatlerle gündeme gelmeye devam ediyor. Çoğunlukla sunduğu fırsat ve avantajlar konuşulsa da yapay zekanın yeni uygulamaları pek çok riski de beraberinde getiriyor. Bilhassa yapay zekanın otonom karar verme kabiliyetlerinin taarruz ve savunma sistemleriyle entegre edilmesi kıymetli risk ve tasaları doğuruyor. Bu bağlamda İsrail Savunma Kuvvetleri’nin (IDF) Gazze’de yapay zeka kullanımına dair gelişmeler de kritik ehemmiyet taşıyor.
Savunmada ve askeri operasyonlarda yapay zeka nasıl kullanılıyor?
Yapay zekanın askeri alanda kullanımı çeşitli biçimlerde gerçekleşebilir. Bunlar ortasında operasyon alanının yapay zeka ile tahlili, maksatların belirlenmesi ve tespiti, gayelere kilitlenme süreçlerinde yapay zekanın kullanılması yaygın örneklerdir. Fakat bu sistemlerin en tartışmalı kullanımı, yapay zekanın direkt hücum buyruğu verecek biçimde konumlandırılmasıdır. İsrail ordusu, yapay zekanın ve otonom sistemlerin operasyonel süreçleri hızlandırmak maksadıyla kullanıldığını açıklamalarında şahsen belirtiyor. [1]
IDF tıpkı vakitte bu sistemlerin çıktılarının beşerler tarafından incelendiğini ve bilhassa de maksat tespitindeki çıktıların yapay zeka çıktılarıyla karşılaştırıldığını belirtiyor. İsrail ordusu, yapay zeka sistemlerinin işleyiş prensiplerini ve karar sistemlerini tam bir şeffaflıkla açıklamadığından ötürü bu alandaki bilgi ve haberler çoğunlukla kimliği açıklanmayan kaynaklara dayandırılıyor. Bu da raporların ve argümanların objektif olarak değerlendirilmesini güçleştiriyor. Bununla birlikte, savların teyit gereksinimi akılda tutularak, kimi yaygın senaryoların incelenmesi de mümkün hale geliyor.
İsrail’in Gazze’de yapay zeka teknolojisini kullanması aslında yeni bir şey değildir. O denli ki 2021 yılındaki “Guardian of the Walls” operasyonu birtakım kaynaklarda “ilk yapay zeka savaşı” olarak nitelendiriliyor. [2] O tarihten bu yana Gazze’ye yönelik hücumlarda yapay zekanın farklı formlarda kullanılmaya devam ettiği biliniyor.
Gazze’deki operasyonlarda ismi öne çıkan çeşitli yapay zeka araçları bulunuyor. Birinci olarak, “Alchemist” isimli sistem, farklı kaynaklardan elde edilen dataları toplayarak bölgedeki hareketlilikleri takip ederek bu bahiste bilgi sağlıyor. [3] “Edge360” ise zırhlı araçlara entegre edilerek çevresel tehditleri operatöre bildiriyor. [4] Bu sistemler direkt akın kararı almayan, operatörlerin karar alma süreçlerini destekleyen niteliktedir ve hasebiyle savaş literatüründeki hedefleme döngüsünü hudutlu biçimde etkilemektedir.
Yapay zeka savaş alanında karar verici pozisyona mı geliyor?
Diğer yandan, İsrail’in Gazze’de kullandığı yapay zeka araçlarının karar takviye sistemlerinin ötesine geçtiğine dair önemli savlar da mevcut. Bu kapsamda 3 sistem bilhassa öne çıkmaktadır. Birincisi, çatışmanın başından beri detaylı hedefleme için kullanılan “Lavender” isimli sistemdir. Lavender, İsrail ordusunun sahip olduğu bilgi havuzlarını kullanarak maksat alınması gereken bireyleri ve pozisyonları belirlemektedir. İkinci sistem “Gospel” (Habsora) ise Lavender’in işlevlerini daha geniş ölçekte ve ek olarak yapılar seviyesinde de gerçekleştirmektedir. Üçüncü sistem olan “Where’s Daddy?” ise hedeflenen bireylerin taşınabilir pozisyon bilgilerini takip ederek belli yerlere girip girmediklerini tespit etmekte ve bu kesin pozisyon bilgisi maksat olarak etiketlenmiş bireylere karşı operasyon gerçekleştirilecek pozisyon tespitinde kullanılmaktadır. [5]
İsrail’in Lavender, Gospel ve Where’s Daddy? sistemlerinin kullanımı hakkındaki haber ve raporlar incelendiğinde, sistem çıktılarının doğrulanmadan seri taarruzlarda kullanıldığı, sivil-asker ayrımının gözetilmediği ve gayelerin sivil hayat alanlarında maksat alındığına dair telaş verici bulgular öne çıkmaktadır. Bu sistemler de sahiden tasarım açısından bakıldığında karar verici olmayıp makul kararları destekleyebilecek niteliktedir.
Diğer yandan karar dayanak sistemi üzere kullanılsa bile bir yapay zeka uygulamasının karar verme sürecine tesiri yalnızca dizayna değil uygulamaya da bakılarak değerlendirilmelidir. Örneğin anılan sistemler direkt otonom hareket etmemesine karşın, birtakım kaynaklara nazaran İsrail ordusu tarafından bilhassa erken operasyonlardaki kullanımlarda Lavender’in hedefleme tespitlerinin doğrulama sürecinden geçmeden ve yalnızca kağıt üzerinde çok süratli onaylanmak suretiyle hücum buyruklarına destek olduğu belirtilmektedir. Yapay zekanın savaş alanında direkt kime taarruz yapılacağına karar veren bir düzenek olarak kullanılması ise türel açıdan kıymetli meseleleri gündeme getirmektedir.
Yapay zeka takviyeli silahlar milletlerarası hukukta nasıl düzenleniyor?
Yapay zekanın savunma ve askeri endüstride karar takviye sistemi olarak kullanımı genel olarak ulusal yahut memleketler arası düzlemde yasaklanmış değildir. Lakin yapay zeka takviyelerin karar dayanak sistemi olmanın ötesine geçip karar alma düzeneğini kıymetli ölçüde ve tahminen büsbütün etkileyecek formda kullanılması milletlerarası insancıl hukuk bakımından sorun teşkil etmektedir.
Uluslararası insancıl hukuk kuralları milletlerarası hukukun öbür alanlarında olduğu üzere memleketler arası antlaşmalarla ve mahkeme kararlarıyla olduğu kadar uzun yıllardır müddet gelen ve yazılı olup olmamasına bakılmaksızın geçerliliği memleketler arası alanda kabul edilen teamül kuralları üzerinden de gelişmektedir. Bu teamül kuralların yaygın atıf yapılan bir derlemesi ise Memleketler arası Kızıl Haç Komitesi (ICRC) tarafından yapılmıştır. [6] Bu kural ve prensiplere bakıldığında silahlı çatışma ortamlarında sivillerin korunması ve ayrım gözetmeyen atakların önlenmesini amaçlayan esaslı unsurlar göze çarpmaktadır. Bu prensipler ortasında siviller ile savaşanların ayrıştırılması, hücumların orantılı olması ve gayelerin askeri emelli olduğunun doğrulanması üzere temel kurallar yer almaktadır. Silahlı çatışmanın varlığı milletlerarası insan hakları hukukunun büsbütün askıya alındığı manasına gelmez. Dahası bu kurallar genel nitelikte olup yeni teknolojilerden açıkça bahsetmiyor olmaları da yeni teknolojilerin bu prensiplerin kapsamı dışında kaldığı, serbestçe kullanılabileceği halinde de yorumlanamaz. Başka bir deyişle yapay zekanın silahlı çatışma araçlarına entegrasyonu durumunda bu silahlar da mevcut milletlerarası hukuk kurallarına uygun biçimde kullanılmalıdır.
Daha özelde ise genel olarak ölümcül otonom silah sistemleri (LAWS) olarak isimlendirilen silah sistemleri [7] insanlara ziyan veren sistemlerin tekrar beşerler tarafından denetim edilmesinin kıymetini vurgulayan birtakım Birleşmiş Milletler (BM) kararları [8], Türkiye’nin de kendisine ve birtakım protokollerine taraf olduğu “Bazı Konvansiyonel Silahlar Hakkında Sözleşme” ve 1949 tarihli Cenevre Konvansiyonları ile bunun ekleri tarafından da düzenleme altına alınmaktadır. Bilhassa Türkiye’nin taraf olmadığı Cenevre Konvansiyonu’nun I numaralı protokolünde yer alan 36.madde uyarınca yeni bir savaş silahı ya da prosedürü almayı, kullanmayı ya da geliştirmeyi düşünen devletlerin bunların ilgili memleketler arası hukuk kuralları tarafından yasaklı olup olmadığını denetim etme yükümlülüğü bulunmaktadır.
Peki daha evvel anılan sistem ve uygulamaların bu kurallar karşısındaki durumu nedir? Öncelikle net bir halde belirtilmelidir ki bir operasyon kararının direkt bir sistem tarafından verilmesi gerçek değildir. Sonuncu operasyon kararı ebediyen insan denetiminde gerçekleşmelidir. Buradaki insan denetiminin de yalnızca hali olması yetmez. Kelam konusu silah sistemi ve savaş alanı açısından uzman bir kişi tarafından gerçekleştirilen manalı bir denetim lakin bu manada denetim teşkil eder. İşçinin yalnızca formu bir imza ya da mühürden ibaret onayı ise bu manada geçerli ve manalı insan denetimi sayılmayacaktır.
İkinci olarak memleketler arası hukukun temel unsurları uyarınca bu formda kullanılacak silahların geliştirilmesinde teknik uzmanlık ve isabet de aranmalıdır. Şu an kullanılan gelişmiş yapay zeka sistemleri teknik işleyiş itibariyle olasılıksal çalışmakta ve yanılgı ihtimali taşımaktadır. İşin ucunda insan hayatı olan kullanımlarda bu oranın düşürülmesi sivil hayattaki kullanımlara göre daha çok ehemmiyet taşımaktadır. Örneğin, Lavender’ın yanılgı oranının yüzde 10 olduğu argüman edilmektedir. [9] IDF tarafından kullanılan sistemler açılıp ayrıntılı incelenmeden bu oranların doğruluğundan emin olmak mümkün olmamakla birlikte salt oran olarak bakıldığında hücum kararı vermek için gaye belirlemek ismine kullanılan bir sistem için bu yanılgı oranı takip eden ayrıntılı bir inceleme ve doğrulama olmaksızın kullanılamayacak kadar yüksektir.
Son olarak değinilmesi gereken konu bu kurallara karşıtlığın yaptırımının ne olduğudur. Birtakım temel istisnalar dışında, kural olarak memleketler arası hukuk düzenlemeleri ulusal kanunlarda olduğu üzere tek bir merkezden çıkarılmaz ve direkt herkes için bağlayıcı hale gelmez. Memleketler arası hukukta devletlerin hükümran eşitliği unsuru nedeniyle, devletlerin onayı olmadan yargılanmaları da mümkün değildir. Bu sebeple memleketler arası düzlemde bir devlete karşı yürütülebilecek hukuksal süreçler epeyce karmaşık hale gelebilmektedir. Milletlerarası Adalet Divanı (UAD) üzere kurumlar, bağlayıcı olmayan tavsiye kararlarıyla [10] operasyonların durdurulması daveti yapmaktadır. Öbür yandan İsrail, Gazze’deki operasyonlar sebebiyle tarafı olduğu BM Soykırım Mukavelesi’nin ihlali gerekçesiyle Güney Afrika tarafından UAD önünde dava edilmiştir. [11] Dava dokümanlarda yapay zekaya atıf bulunmamakta ve dava kapsamında genel milletlerarası hukuk bakımından tartışma yapılmaktadır. Kelam konusu dava ise hala görülmeye devam etmektedir.
[1] https://www.idf.il/en/mini-sites/idf-press-releases-israel-at-war/june-24-pr/the-idf-s-use-of-data-technologies-in-intelligence-processing/
[2] Anna ANRONHEM, “Israel’s operation against Hamas was the world’s first AI war”, 27.05.2021, https://www.jpost.com/arab-israeli-conflict/gaza-news/guardian-of-the-walls-the-first-ai-war-669371; Takeshi KUMON, “The first AI conflict? Israel’s Gaza operation gives glimpse of future”, 28.06.2021, https://asia.nikkei.com/Politics/International-relations/The-first-AI-conflict-Israel-s-Gaza-operation-gives-glimpse-of-future.
[3] Tal MİMRAN & Gal DAHAN, “Artificial Intelligence in the Battlefield: A Perspective from Israel”, 20.04.2024, https://opiniojuris.org/2024/04/20/artificial-intelligence-in-the-battlefield-a-perspective-from-israel/.
[4] Tal MİMRAN & Gal DAHAN, “Artificial Intelligence in the Battlefield: A Perspective from Israel”, 20.04.2024, https://opiniojuris.org/2024/04/20/artificial-intelligence-in-the-battlefield-a-perspective-from-israel/.
[5] Yuval ABRAHAM, “‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza”, 03.04.2024, https://www.972mag.com/lavender-ai-israeli-army-gaza/.
[6] ICRC, International Humanitarian Law Databases, https://ihl-databases.icrc.org/en/customary-ihl.
[7] United Nations Office for Disarmament Affairs, https://disarmament.unoda.org/the-convention-on-certain-conventional-weapons/background-on-laws-in-the-ccw/.
[8] Birleşmiş Milletler Genel Meclisinin 22.12.2023 tarih 78/241 sayılı kararı: https://docs.un.org/en/A/RES/78/241; Birleşmiş Milletler Genel Meclisinin 02.12.2024 tarih 79/62 sayılı kararı: https://documents.un.org/doc/undoc/ltd/n24/305/45/pdf/n2430545.pdf.
[9] Yuval ABRAHAM, “‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza”, 03.04.2024, https://www.972mag.com/lavender-ai-israeli-army-gaza/.
[10] Memleketler arası Adalet Divanı, 19.07.2024 tarihli tavsiye kararı, https://www.icj-cij.org/node/204176.
[11] “Application of the Convention on the Prevention and Punishment of the Crime of Genocide in the Gaza Strip (South Africa v. Israel)”, https://www.icj-cij.org/case/192.
[Dr. Osman Gazi Güçlütürk, Galatasaray Üniversitesi Hukuk Fakültesi Bilişim ve Teknoloji Hukuku Anabilim Kısmı Öğretim Üyesidir.]
*Makalelerdeki fikirler müellifine aittir ve Anadolu Ajansının editoryal siyasetini yansıtmayabilir.