İsrail’in ölümcül zekaları: İsrail ordusunun kullandığı yapay zeka, katliam yapıyor

İsrail, 7 Ekim hücumlarından beri Gazze’de Hamas’la, Lübnan’da Hizbullah’la ve Yemen’de Ansar Allah’la çatışmaya devam ediyor. Bu devir boyunca İsrail’in ölümcül taarruzları, dünyanın reaksiyonunu topladı. Bilhassa Gazze’de hastane, okul, Birleşmiş Milletler ofisleri üzere kamu binalarını vuran İsrail ordusu akınlarını “askeri maksatları imha ettikleri” gerekçesiyle legalleştiriyor.

Peki, İsrail ordusu bu “askeri hedefleri” nasıl seçiyor? Nasıl oluyor da bu gayeler her vurulduğunda, sivil zaiyat çoğunlukla daha yüksek oluyor?

+972 Mecmua ve Local Call çevrimiçi haber siteleri, bu mevzuyla ilgili bulgularını yayımladılar. Yayımlanan yazıya nazaran İsrail ordusu, Hamas üzere örgütlere bağlı maksatları süratli ve tesirli bir formda seçmek için, yapay zeka sistemleri kullanıyor. Gayeleri süratle ve çokça bulmak üzere uzmanlaşan bu sistemler, muhtemel sivil vefatlarını hiçe sayarak Hamas ve Hizbullah maksatlarını işaretliyor ve İsrail İHA’larının merceklerine aktarıyor. İsrail ordusu çalışanı, seçilen amaçların infazını yalnızca 20 saniye içerisinde onaylıyor.

SAVAŞIN 3 ÖLÜMCÜL ZEKASI

+972 Mecmua’ya bağlı İsrailli ve Filistinli gazeteciler, kimliklerinin bâtın tutulacağı kuralıyla konuşan altı İsrail ordusu yetkilisiyle konuştu. İsimsiz ordu yetkilileri, İsrail’in gayelerini seçmek için kullandığı yapay zeka programları hakkında bilgi verdi. 

İsrail ordusu üst seviye yetkilisi B., “(Hamas) militanlarını yalnızca askeri bir binadayken ya da askeri bir faaliyette bulunurken öldürmek kâfi değildi. Tersine, birinci tercih olarak hiç tereddüt etmeden onları konutlarında bombalıyorduk. Bir ailenin konutunu bombalamak çok daha kolay. Sistem bu üzere durumlarda onları aramak üzere kurulmuştur.” açıklamasını yaptı.

B.’nin bahsettiği sistem, üçe ayrılıyor. Birinci sistem, İsrail’in birinci yapay zeka sistemi olan “Gospel” (Müjde) sistemi. Gospel’in gayesi, Hamas üzere örgütler tarafından kullanılan binaları; telefon sinyalleri, uydu manzaraları, yakındaki araç plakaları üzere dataları kullanarak tespit etmek. Bu sistem, neredeyse 6 yıldır İsrail ordusu tarafından askeri fonksiyon gören binaları bulmak için kullanılıyor.

Fakat B.’nin bahsettiği vahşetin sorumlusu Gospel değil, Gospel’in geliştirilmesi sonucu üretilen Lavender (Lavanta) isimli yapay zeka sistemi. İsrail ordusu 7 Ekim saldırısından kısa müddet sonra, ‘bir gün içerisinde olabilecek en fazla Hamas maksadını etkisiz hale getirebilmek için’ Lavender yapay zeka sistemini kullanmaya başladı.

TERÖRİST DEĞERİ

Lavender, daha evvel örgüt üyesi olduğu bilinen şahısların bilgilerini, Hamas ve Hizbullah üzere örgütlere bağlı sivil toplum kuruluşlarının datalarıyla harmanlayarak şahısların nüfus bilgilerini tarıyor. Bu tarama sonucu, listedeki herkesi 1’den 100’e kadar olan bir ‘terörist değeri’ ile etiketliyor. Bu kıymetlerle etiketlenmiş bireylerin bulunduğu listelerde, İsrail ordusu subayı B. üzere yetkililerin eline bir infaz listesi olarak geçiyor.

İsrail subayı B., durumu “Biz (insanlar), bu kadar çok bilgiyi işleyemeyiz. Savaş sırasında amaç üretmek için kaç kişiyi görevlendirdiğinizin bir kıymeti yok – tekrar de gün içinde kâfi amaç üretemezsiniz.” kelamlarıyla açıklıyor.

İsrail, 7 Ekim ataklarından sonra bir gün içerisinde olabildiğinde Hamas militanını öldürmeyi hedefliyordu. Lavanta sisteminin seçtiği gayeler, evvelden daha dikkatli bir biçimde denetim edilirken, 7 Ekim’den sonra daha düşük ‘terörist değeriyle’ etiketlenen bireyler de listelere girdi. Bu listelerin denetimi, öldürülen Hamas militanlarının sayısını daha da arttırmak için yalnızca 20 saniye denetim edildi. Birçok subay, amaçların yalnızca erkek olup olmadığını denetim ettikten sonra infaz onayı verdi. Bu onay, yapay zekanın yüzde 10 düzeyinde bir yanılgı hissesi olduğu bilinmesine karşın verildi.

Lavender’ın kusur hissesi üzerinde duyan bir kaynak, “Bir kişinin yapay zeka makinesi tarafından örgütle ilişkili olarak görülmesi için Hamas’a ne kadar yakın olması gerekir?” sorusunu sordu.

Kaynak, kendi sorusuna “Bu muğlak bir hudut. Hamas’tan maaş almayan fakat onlara muhakkak bahislerde yardımcı olan bir kişi Hamas militanı mıdır? Geçmişte Hamas’ta bulunmuş lakin bugün artık Hamas’ta bulunmayan biri Hamas casusu mıdır? Bu özelliklerin her biri – bir makinenin kuşkulu olarak işaretleyeceği özelliklerdir – yanlıştır” karşılığını verdi.

İsrail subayı B., ise bu soruya: “Otomatiğe geçince, gaye üretimi çılgın oluyor” yanıtını verdi. 

BABA NEREDE?

İsrail, 7 Ekim’den sonraki birinci 3 ay hava atakları sonucu Gazze’de 37 bin kişiyi öldürdü. Ölen Gazzeli insanların kıymetli bir kısmı sivildi. Bunun sebebi ise, yeni anlaşılıyor. 

Lavender’ın maksadı maksat seçmek, ve Gospel’in emeli da askeri binaları işaretlemek. İsrail’in ordusunun, Lavendar’ın işaretlediği amaçları seçmesi bir diğer bir yapay zeka sistemine daha muhtaçlığı vardı. İşte tam burada, “Where’s Daddy?” (Baba Nerede?) yapay zeka sistemi devreye giriyor. 

Where’s Daddy? sisteminin gayesi, amaç alınan militanların meskenlerinde olduklarından emin olmak. Sistem, kameraları ve telefon sinyallerini kullanarak gayelerin konutlarında olduklarını teyit ediyor. Ordu, amacın meskenine vardığından gereğince emin olduğunda, vur buyruğunu veriyor.

BİR AMAÇ, YÜZ SİVİLE BEDEL

Where’s Daddy? sisteminin konutun içinde öteki kimlerin olduğunu tespit etmek üzere bir vazifesi yok. Bu sebeple, İsrail ordusu “kabul edilebilir zaiyat” skalasına nazaran taarruz buyruğunu veriyor. Bu ölçüye nazaran, düşük rütbeli bir militan 10 ila 20 sivile bedelken, yüksek rütbeli bir militan için 100 sivil gözden çıkartılabiliyor.

+972 Mecmuası’na konuşan, A. ismini kullanan bir diğer subay, “Diyelim ki [evde] bir Hamas [militanı] artı 10 [sivil] olduğunu hesapladınız,” dedi. “Genellikle bu 10 kişi bayan ve çocuk olur. Yani saçma bir halde, öldürdüğünüz insanların birçoklarının bayan ve çocuk olduğu ortaya çıkıyor” dedi.

+972 Dergisi, bu duyarsızlığın delilini datalarda gösteriyor: BM sayılarına nazaran, savaşın birinci ayında ölen  6.120 kişi, 1.340 aileye mensuptu ve bunların birden fazla meskenlerinin içindeyken büsbütün yok edildi. Mevcut savaşta meskenlerinde bombalanan ailelerin oranı, İsrail’in 2014’te Gazze’ye düzenlediği operasyondan çok daha yüksek. 

A. ismini kullanan subay, Where’s Daddy? yapay zeka sisteminin de yanlışsız olmadığını belirtiyor. O denli ki A., maksat meskeninde değilken içi bayan ve çocuk dolu meskenlerin bombalandığı itiraf etti. İsimsiz öteki bir kaynak, “Birçok defa bir meskene saldırdığımız oldu, fakat gaye konutta bile değildi,” dedi ve “Sonuç olarak bir aileyi sebepsiz yere öldürmüş oluyorsunuz” diye ekledi

İsrail ordusu bu savları kesin bir lisanla reddediyor. IDF Sözcüsü, +972 Dergisi ve Local Call’a yaptığı açıklamada, maksatları seçmek  için yapay zeka kullanıldığını reddederek, yapay zeka sistemlerinin sadece “seçme sürecinde görevlilere yardımcı olan yardımcı araçlar” olduğunu söyledi. Ordu sözcüsü, açıklamasına “Her durumda, belirlenen gayelerin IDF yoluna uygun ve memleketler arası hukukla uyumlu olarak taarruz için legal maksatlar olduğunu doğrulayan bir analist mevcuttur” dedi.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir