Site İçi Arama

savunma

İsrail'in Gazze'de Toplu Katliam Yapmak İçin Kullandığı Levander Sistemi Nedir?

İsrail merkezli “+972 Magazine”e konuşan görevli 6 istihbarat yetkilisi, yapay zekâ tabanlı katliam makinası hakkında da bilgi vermiştir. İstihbarat yetkililerine göre Levander, Gazze savaşının baş aktörü olmuştur. Levander, Hamas mensubu olarak sınıflandırdığı kimseleri, çoluk-çocuk demeden bombalanacak hedef olarak işaretlemektedir.

Yapay zekâ, günümüzde yaptığımız işlerin otomatik makineler ve yazılımlar aracılığı ile kontrolü ve koordinasyonu demektir. Bu işler, insanlar tarafından yapılan eylemler olabileceği gibi diğer canlıların eylemleri de olabilir.

Biz canlılar göz, kulak, dil, burun, el, kol, bacak gibi organlarımızı kullanırız. Ama yapay zekâlı sistemlerde organlarımızın işlerini sensörler yani algılayıcılar yapar.

Son yıllarda üretilen Satranç oynayan bilgisayarlar, uçakların uçuş rotalarını takip eden otomatik pilotlar, gemilerin seyrüsefer sistemleri, insansız denizaltıların hepsi yapay zekâlı sistemlerdir.

Yapay Zekâ İnsansız Sistemlerde Nasıl Kullanılıyor?

Askeri alanda yapay zekânın (AI) kullanımı artan bir ilgi ve endişe konusu olmuştur. AI teknolojileri, askeri yetenekleri, karar alma süreçlerini ve stratejik planlamayı geliştirerek savaşta devrim yaratma potansiyeline sahiptir. Bununla birlikte, AI'nın savaşta konuşlandırılması aynı zamanda etik, yasal ve güvenlik hususlarını da gündeme getirir.

AI (Artificial Intelligence - Yapay Zekâ), günümüzde askeri alanda istihbarat toplama ve analizden otonom silah sistemlerine kadar giderek daha fazla kullanılmaktadır. Yapay zekânın askeri operasyonlara entegrasyonu hem fırsatları hem de zorlukları beraberinde getirmektedir.

1. İstihbarat toplama ve analiz: 

Yapay zekâ, askeri güçlere gözetleme, keşif ve hedef belirleme gibi alanlarda yardımcı olarak anlamlı tespitler yapabilmek ve faydalı bilgi elde etmek için büyük miktarda veriyi işleyip analiz edebilir. AI algoritmaları, kalıpları tespit etmek, düşman hareketlerini tahmin etmek ve potansiyel tehditleri belirlemek için büyük miktarda bilgiyi tarayabilir.

2. Otonom silah sistemleri: 

Yapay zekâ, doğrudan insan müdahalesi olmaksızın bağımsız olarak hedefleri seçebilen ve bu seçilen hedeflere kilitlenen otonom silahların geliştirilmesini sağlayabilir. Bu sistemler hız ve hassasiyetle çalışarak potansiyel olarak insan kayıplarını azaltabilir. Bununla birlikte, tamamen otonom silahların geliştirilmesi, hesap verebilirlik, insan gözetimi ve istenmeyen sonuçların potansiyeli ile ilgili etik kaygıları ve zorlukları da gündeme getirmektedir.

3. Siber savaş: 

Yapay zekânın siber savaş için önemli etkileri vardır. Siber tehditleri gerçek zamanlı olarak tespit etmek ve bunlara yanıt vermek, ağlardaki güvenlik açıklarını belirlemek ve gelişmiş kötü amaçlı yazılım veya savunma mekanizmaları geliştirmek için kullanılabilir. Yapay zekâ destekli algoritmalar, çok büyük miktarda ağ trafiğini hızla analiz edebilir, anormallikleri tespit edebilir ve siber saldırılara daha etkili bir şekilde yanıt verebilir.

4. Karar destek sistemleri: 

Yapay zekâ, gerçek zamanlı analiz ve öneriler sunarak askeri komutanların bilgiye dayalı kararlar almalarına yardımcı olabilir. Yapay zekâ algoritmaları, karmaşık veri kümelerini işleyebilir, senaryoları simüle edebilir ve stratejik planlama ile taktik operasyonları desteklemek için tahminler sunabilir. Bu, durumsal farkındalığı arttırabilir ve yanıt sürelerini iyileştirebilir.

5. Lojistik ve tedarik zinciri yönetimi: 

Yapay zekâ, kaynaklar, talep ve nakliye yollarıyla ilgili verileri analiz ederek lojistik ve tedarik zinciri yönetimini optimize edebilir. Bu, kaynakların verimli bir şekilde tahsis edilmesine, maliyetlerin düşürülmesine ve askeri operasyonların etkinliğinin artırılmasına yardımcı olabilir.

Askeri alanda yapay zekânın (AI) kullanımı artan bir ilgi ve endişe konusu olmuştur. AI teknolojileri, askeri yetenekleri, karar alma süreçlerini ve stratejik planlamayı geliştirerek savaşta devrim yaratma potansiyeline sahiptir. Bununla birlikte, yapay zekânın savaşta konuşlandırılması aynı zamanda etik, yasal ve güvenlik hususlarını da gündeme getirir.

Fakat bir diğer önemli konu da yapay zekâ artık sadece askeri alanda kullanılmamakta hayatın her alanında kullanılmaktadır. 

Otonom (Kendi başına karar verebilen ve bir merkezden bağımsız hareket eden) Araçlar:

Yapay zekâ, otonom araçların trafikte güvenli bir şekilde seyahat etmelerini sağlamak için kullanılabilir. Araçlar, çevrelerini sensörler aracılığıyla analiz edebilir ve gerektiğinde hareketleri kontrol edebilir.

Endüstriyel Otomasyon: 

Fabrikalarda veya üretim tesislerinde yapay zekâ, üretim hatlarını yönetmek, kalite kontrolünü sağlamak ve verimliliği artırmak için kullanılabilir.

Sağlık Hizmetleri: Yapay zekâ, tıbbi teşhis ve tedavi planlaması için kullanılabilir. Özellikle görüntü analizi, hastalık teşhisi ve ilaç geliştirme gibi alanlarda faydalı olabilir.

Hava Durumu Tahminleri: 

Yapay zekâ, büyük veri analizi ve modeller oluşturarak daha doğru hava durumu tahminleri yapılmasına yardımcı olabilir.

Doğal Dil İşleme: 

Yapay zekâ, müşteri hizmetleri, metin analizi ve dil tercümeleri gibi alanlarda insan olmadan karmaşık dil işleme görevlerini yerine getirebilir.

Finans ve Ticaret: 

Yapay zekâ, finansal analiz, risk değerlendirmesi ve ticaret stratejileri oluşturmak için kullanılabilir.

Yapay Zekâ İnsansız Sistemlerde Kullanılabilir mi?

Evet, yapay zekâ insansız sistemlerde geniş bir yelpazede kullanılabilir. Yapay zekâ, karmaşık görevleri otomatize etmek, veri analizi yapmak, desenleri tanımak, kararlar almak ve insan müdahalesi olmadan çeşitli işlevleri yerine getirmek için kullanılabilir. İnsansız sistemler, genellikle tehlikeli, uzak veya zorlu koşullarda çalışabilen, verimliliği artırabilen veya belirli görevleri gerçekleştirebilen sistemlerdir.

Drone ve Robotlar: 

Yapay zekâ destekli dronlar ve robotlar, keşif, kurtarma, tarım, inşaat gibi alanlarda kullanılabilir. Kendi başlarına çevrelerini anlayabilir, nesneleri algılayabilir ve görevleri tamamlayabilirler.

Yapay Zekâ Tehlikeli mi? 

Yapay zekâ potansiyel olarak tehlikeli olabilir, ancak bu konuda genel bir cevap vermek zordur. Yapay zekâ çok çeşitli alanlarda kullanılabilir ve farklı seviyelerde karmaşıklığa sahip olabilir. Bazı yapay zekâ sistemleri, örneğin basit görevleri yerine getiren veya belirli sorunları çözen sistemler, genellikle güvenlidir. Ancak, bazı yapay zekâ sistemleri, özellikle genel yapay zekâ adı verilen sistemler, daha karmaşık bir potansiyele sahiptir ve potansiyel olarak bazı tehlikeleri beraberinde getirebilir.

Yapay zekâ potansiyel olarak tehlikeli olabilir, ancak doğru şekilde yönetildiğinde büyük faydalar sağlayabilir. Yapay zekânın tehlikeli olabileceği bazı durumlar şunları içerebilir:

1. Kontrolsüz özerklik: 

Yapay zekâ sistemleri, karmaşık ve özerk kararlar alabilme yeteneğine sahip olabilir. Eğer bu sistemlerin eylemleri ve kararları kontrolsüz bir şekilde gerçekleşirse, istenmeyen sonuçlara yol açabilir.

2. Veri yanlılığı:

Yapay zekâ sistemleri, büyük miktarda veri kullanarak öğrenme yapar. Ancak, bu verilerdeki yanlılık veya önyargılar, yapay zekâ sistemlerinin yanlış veya haksız kararlar almasına neden olabilir.

3. İnsan etiğine uyumsuzluk:

Yapay zekâ sistemleri, etik değerleri ve insan değerlerini anlamakta sınırlı olabilir. Bu durumda, yapay zekâ sistemleri, insan değerlerine aykırı kararlar alabilir veya insanların gizlilik haklarını ihlal edebilir.

Bu nedenlerle, yapay zekâ teknolojisinin geliştirilmesi ve kullanımı dikkatle yönetilmeli, etik ve güvenlik standartlarına uyulmalıdır. İnsanların yapay zekânın etkileri üzerinde kontrol sahibi olması ve denetleyici mekanizmaların bulunması önemlidir. Böylece, yapay zekâ teknolojisi toplumun ve insanlığın yararına kullanılabilir. Yapay Zekânın insansız sistemlerde nerelerde kullanıldığını açıklarken istihbarat toplama, Analiz ve Otonom silah sistemleri diye daha önce açıklamıştık. 

Savaşlarda yapay zekânın kullanımı

Günümüzde ülkeler kendilerini savunmak için savunma sistemlerinde ve saldırı araçlarında artık daha fazla yapay Zekâ uygulamaya başlamışlardır. Ülkeler arası rekabetin de etkisiyle savaş meydanlarına yapay zekânın entegrasyonu, hiç olmadığı kadar hızlı bir şekilde ilerleme kaydetmektedir. 

Ülkelerin her türlü savaş ve araçlarına uygulamaya başladığı bu teknolojinin getireceği değişiklikler neler olacak? Bizi neler bekliyor? 

Yapay zekânın saldırı ve savunma sistemlerinde kullanılmasıyla birlikte sınırların ortadan kalktığı ve insanların dâhil olmadığı savaşlar bizleri bekliyor olabilir. İleri teknoloji bir yapay zekâ kontrolündeki uçak, drone ya da denizaltı gibi araçlar, bölgeye yerleştirilmiş sensörler ve sahip oldukları algoritmalar yardımıyla savaşı kendileri yürütebileceklerdir. Düşman sahasındaki en ufak hareketi anında tespit edebilen bu makineler, insanların yönetiminde oldukları zamankinden çok daha hızlı müdahalelerde bulunabilirler. Bu konulara örnek olarak yapay zekâ kontrolündeki drone’lar savaş alanında yaralanan askerleri bulmada kullanılabilecektir. İnsansız hava araçlarının aynı zamanda petrol arama, kıta sahanlığı koruma, göç yollarını kontrol, kontrolsüz insan trafiğini engelleme ve kaçakçılığı önleme gibi amaçlarla da kullanılması beklenmektedir. 

Örneğin Çin, kendi hava sahasında hâkimiyet kurabilmek için bir drone ordusundan faydalanmaktadır. Havan mermisi, el bombası atıcısı ve makineli tüfek taşıyabilen bu drone’lar bir araya gelerek koordineli saldırılar da yapabiliyor. Yönetici askerden saldırı emri aldığında havalanan drone’lar otomatik olarak kilitlendiği hedefi koordine bir şekilde vurup ana üsse geri geliyorlar.

Çin’in radarla tespit edilemeyen bir diğer insansız hava aracı Sky Hawk ise, şimdilik gelişim sürecinde olsa da, önemli bir potansiyele sahip. ABD’nin B-2 bombacısına benzer olarak yüksek rakımda uzun mesafeler kat edebilecek ve çatışma bölgesinde keşif yaparak orduyu uyarabilecek Sky Hawk, hem insanlı hem de insansız diğer hava araçlarıyla iletişim kurarak bu verileri paylaşabilecek. Hem insanlı hem de insansız hava araçlarıyla iletişim kurabilen bu tip bir teknolojinin hedef belirlemeyi hızlandıracağı, saldırı gücünü artıracağı ve kayıpları azaltacağı ifade edilmektedir. 

İsrail'in yapay zekâ kullanarak ürettiği silahlar

İsrail devleti teknoloji birikimini ve ARGE kaynaklarını çok önceden Yapay Zekâ ve uygulamalarını kendi harp silah ve araçlarına uygulamaya başlamıştır.  

İsrail’in Merkava tanklarının "beşinci nesli" olarak tanımlanan ve yapay zekâyı kullanan Barak tankının en önemli özelliği kapakları kapalıyken bile "güvenilir sensörlerden oluşan geniş bir altyapı" çevresini görebilmesidir. Barak modeli ayrıca tankın etrafında 360 derecelik bir "koruyucu kalkan" oluşturan "Trophy aktif koruma sistemi" ile çalışırken, bu sistem, tanka yönelik herhangi bir tehdidi anında tespit etmekte ve ateş ederek yaklaşan tanksavar füzesini etkisiz hale getirmektedir.

Ayrıca İsrail Hava Kuvvetleri'nin istihbarat toplama ve muharebe destek insansız hava araçları filosu olan “Storm Clouds” programının bir parçası olarak geliştirilen “Spark”, programı da İsrail ordusuna istihbarat bilgisi sağlamaktadır.

“Spike Firefly” ise sadece 3 kilo ağırlığında kamikaze insansız hava araçlarının bir modeli olup 350 gramlık çok yönlü bir savaş başlığı da taşıyabilmektedir. Bu İHA, bir alan üzerinde 30 dakikaya kadar havada kalarak gezinebilmekte ve 1,5 kilometre öteye kadar bölgede bulunan dost birliklere de uzaktan bilgi sağlayabilmektedir. Hedef tanımladıktan sonra üsse geri dönmekte ya da 350 gramlık çok yönlü parçalanma savaş başlığı ile donatılmışsa hedefe çarpıp hedefi imha edebilmektedir. 

Hassas, lazer ve GPS güdümlü havan topu mühimmatı olarak bilinen “Iron Sting”, "tüm savaş alanı senaryolarında" çalışabilen 120 milimetrelik hassas güdümlü 1-12 kilometrelik menzile sahip bir havan mühimmatıdır.

İsrail’in yapay zekâ hedef tespit programı: “levander”

Dünya medyasında ve internette de yayınlanmış olan haberlerden ve +972 Magazin dergisinde Yuval Abraham tarafından 3 Nisan 2024 tarihinde yayınlanmış olan makalesinden öğrendiğimiz kadarıyla bir başka yapay zeka uygulaması da İsrail’in ordu ile yapay zekayı entegre eden bir istihbarat birimi olduğu anlaşılmaktadır. Bu birim Levander adlı yapay zekâ tabanlı bir istihbarat analiz programını yazmış ve geliştirmiştir. Levander programı, binlerce görüntüyü, telefon konuşmasını kısacası Filistin ve Gazze’de bulunan şahıslara ait her türlü toplanan veriyi saniyeler içinde işleyip Filistinlileri ve Gazze’deki halkı potansiyel hedef olarak işaretlemektedir. 

Levander’e yardımcı olması için de “Where is Dady” ve “The Gospel” isimli iki yapay zekâ sistemi daha İsrail ordusuna hizmet etmektedir. Where is Dady, Levander’in işaretlediği hedefleri takip etmektedir. The Gospel ise vurulacak bina ve alt yapı sistemlerini işaretlemektedir. Bu yapay zekâ tespitlerine göre de ortaya çıkan hedefler İsrail ordusu tarafından bombalanmaktadır. 

37 Bin Hedef Belirledi

İsrail merkezli “+972 Magazine”e konuşan görevli 6 istihbarat yetkilisi, yapay zekâ tabanlı katliam makinası hakkında da bilgi vermiştir. İstihbarat yetkililerine göre Levander, Gazze savaşının baş aktörü olmuştur. Levander, Hamas mensubu olarak sınıflandırdığı kimseleri bombalanacak hedef olarak işaretlemektedir. Yine bu kaynakların aktardığı bilgilere dayanarak bu yapay zekâ makinası, Gazze'deki hemen hemen her kişiye 1'den 100'e kadar puan vererek onların militan olma ihtimalinin ne kadar yüksek olduğunu belirlemiştir. Savaşın ilk birkaç haftasında, Levander tarafından, bombalanmak üzere 37 bin hedef tespit edilmiştir. İsrail ordusu da Levander programının belirlediği hedeflere, “Komutanından emir alıyormuşçasına” tereddüt etmeden saldırmıştır. 6 aylık süreçte belirlenen 37 bin hedeften sadece bininin vurulduğunu söyleyen kaynak, “Hazırda bekleyen daha 36 bin hedef var.” demiştir. 

Levander Programının Yüzde 10 Hata Payı Var

İsrail ordusu, yapay zekânın belirlediği ölüm listesini kontrol etmemiştir. Ancak konuya ilişkin bilgi veren bir istihbarat yetkilisi, Levander’in sadece 20 saniyede hedefini belirlediğini ve yüzde 10’luk bir hata payı olmasına rağmen İsrail’in tereddütsüz belirlenen hedefe saldırı düzenlediğini kaydetmiştir. Ölüm makinesinin yaş fark etmeksizin Hamas’la bağıntılı kişileri işaretlediğini belirten yetkili, bazı zamanlarda sistemin Hamas’la zayıf bağlantılı kişileri de işaretlediğini, bazen de hiç bağlantısı olmayan kişileri potansiyel hedef olarak gösterdiğini belirtmiştir. 

İsrail ordusu; yapay zekâ tarafından tespit edilen ve hedef olarak işaretlenen bu kişileri sorgulamadan, özellikle geceleri evlerindeyken ve aile bireyleri yanlarındayken bombalamıştır. “Hedefin akşam 20.00'de evde olduğunu anladık. Sonunda hava kuvvetleri saat 03.00'te evi bombaladı.” diyen istihbaratçı, “Sonra da ailesiyle birlikte başka bir eve taşınmayı başardığını öğrendik. Bombaladığımız binada çocuklu iki aile daha vardı. Yanlışlıkla onlar öldü.” demiştir.

Gazze’de Yapay zekâda sadece Filistinlilerin hedef alınması gibi yanlı veri kullanımı ve tespit edilen hedeflerin etrafında hastane, okul veya daha başka bombalanmaması gereken yerlerin var olup olmadığına bakmaksızın yani Collateral Damage (Sivil zayiat / Tali Hasar) dediğimiz masum insan ve hedeflerin olup olmadığına dikkat etmeksizin bombalama yapılmıştır. Bu şekilde davranılarak da binlerce sivil insanın, hastanelerde tedavi gören yaşlı ve hasta kişilerin, hastanelerdeki yeni doğmuş çocukların ve hatta ibadethanelerinde bulunan Müslüman veya Hristiyan tüm masum insanlar da bu şekilde katledilmiştir.

Bu konuda ulaşılan bilgilerden Gazze’de gerçekleşen insanların etnik ve kimlik temelli yok edilmesi çalışmalarının İsrail tarafından çok önceden başlatıldığını anlayabiliriz.

Yapay zekânın güvenli olması için insanlar tarafından neler yapılabilir?

Yapay zekânın güvenli olması için insanlar tarafından aşağıdaki önlemler alınabilir:

Etik İlkeler ve Standartlar Geliştirmek: 

Yapay zekâyı etik değerler ve insan hakları temelinde geliştirmek için etik ilkeler ve standartlar oluşturulmalıdır. Bu ilkeler, yapay zekâ sistemlerinin adalet, şeffaflık, hesap verilebilirlik ve insan refahını gözetmesini sağlar.

Güvenlik Testleri ve Denetimler: 

Yapay zekâ sistemlerinin güvenliğini değerlendirmek için bağımsız güvenlik testleri ve denetimler yapılmalıdır. Bu testler, sistemlerin beklenmeyen hatalar veya kötü niyetli saldırılara karşı savunmasız olup olmadığını tespit etmeye yardımcı olur. 

 

Veri Gizliliği ve Mahremiyetin Korunması: 

Yapay zekâ sistemlerinin veri gizliliği ve mahremiyet konularında uyumlu olması önemlidir. Verilerin toplanması, depolanması ve işlenmesinde güvenlik önlemleri alınmalı ve kişisel verilerin korunması için uygun şifreleme ve güvenlik protokolleri kullanılmalıdır.

Sorumluluk ve Hesap Verilebilirlik: 

Yapay zekâ sistemlerinin karar süreçleri ve sonuçları anlaşılır olmalıdır. İnsanlar, yapay zekânın verdiği kararların nasıl oluştuğunu anlamalı ve sistemlerin hesap verilebilir olmasını sağlamak için gerekli önlemleri almalıdır.

İnsan Denetimi ve Gözetimi: 

Yapay zekâ sistemlerinin tamamen otonom olması yerine, insan denetimi ve gözetimi altında çalışmaları sağlanmalıdır. İnsanlar, yapay zekânın kararlarını değerlendirebilir, düzeltici önlemler alabilir ve beklenmedik durumlarda müdahale edebilir.

Eğitim ve Farkındalık: 

Yapay zekânın güvenliği ve etiği konusunda eğitim ve farkındalık çalışmaları yapılmalıdır. Yapay zekâ alanında çalışan profesyoneller ve karar vericiler, güvenlik ve etik konularında bilinçlenmeli ve gelişmeleri takip etmelidir.

Bu önlemler, yapay zekânın güvenli bir şekilde geliştirilmesini ve kullanılmasını teşvik eder. İnsanların bu konuda aktif rol oynaması, yapay zekâ teknolojisinin potansiyel tehlikelerini azaltmaya yardımcı olur ve toplumun refahını korur.

Araştırmacı Yazar Müjdat  YUMAK
Araştırmacı Yazar Müjdat YUMAK
Tüm Makaleler

  • 07.05.2024
  • Süre : 9 dk
  • 1117 kez okundu

Google Ads