Pazar, Ocak 11, 2026
Ana SayfaDonanımRobotlar İnsanların Ölüm Kararını Verebilir

Robotlar İnsanların Ölüm Kararını Verebilir


Askeri uzmanlar, yeni nesil ölümcül silahların iyi mi denetim edileceği mevzusunda endişelerini dile getirdi. Yakında bilgisayarların kimi öldüreceklerine karar vermeleri gerekebilir.

Bilgisayarların, uzun seneler süresince devam eden çalışmalarla geliştirilen karar verebilme kabiliyetleri oldukça garip boyutlara geldi. Bu sistemler ve karar verme mekanizmaları, aslen hayatımızın her noktasına sirayet etmiş durumda. E-posta hizmeti aldığımız kurumlar, spam e-postaları kendileri belirleyebiliyor. Google Haritalar benzer biçimde hizmetler, bizim için en iyi rotayı seçebiliyor. Başka pek oldukca alanda da makinelerin ve yapay zekânın kullanımını görüyoruz.

Peki makineler, bir insanı öldürme kararını alabilir mi? Bu mevzu, yapay zekâya odaklanan podcast serisi Sleepwalkers’ın sekizinci bölümünün ana konusunu oluşturuyor. Askeri uzmanlar, yeni nesil ölümcül silahların bağımsız ve genel anlamda açık olmayan hareketlerinden çekiniyor.

“Makineler, harp alanındaki en mühim kararlardan birini alabilir”

New American Securtiy adlı teknoloji ve ulusal güvenlik fikir kuruluşunun yöneticisi Paul Scharre, “Harp alanında en mühim kararlardan kabul edilen kimin yaşayacağı ya da öleceği mevzusunda makinelerin karar verebileceği bir dünyaya gidiyoruz” dedi.

Makinelerin kimi ortadan kaldıracağına kendilerinin karar verebilmesi bizlere şu anda oldukça uzak ve şok edici geliyor olabilir sadece gerçek, kesinlikle daha değişik. İsrail yapımı Harpy adlı drone şu anda Çin, Hindistan ve Cenup Kore’ye satılıyor. Bu vasıta, insanları hedef almıyor sadece öteki makineleri, bilhassa radarları, otomatikman tespit edip hedef alabiliyor.

Robotlar İnsanların Ölüm Kararını Verebilir

Gelecekte kendi karar alabilen makinelerin daha yaygın hâle gelmesi umut ediliyor. ABD, Çin, Rusya benzer biçimde ülkeler, gelecekteki askeri stratejilerinde yapay zekâya büyük ehemmiyet veriyor. Doğrusu yapay zekânın elini kana bulaması {hiç de} uzak küçük bir ihtimal değil.

Öte taraftan DARPA’nın başı olan Arati Prabhakar, yapay zekânın haiz olduğu kısıtların bilincinde. Mesela bir yapay zekâ, almış olduğu kararın arkasında yatan mantığı bir insan benzer biçimde açıklayamıyor. Testlerde oldukca başarı göstermiş olan bir görüntü tanıma yazılımı, diş fırçası tutan bebek resmine beyzbol sopası tutan çocuk diyebiliyor.

Prabhakar, bir çok görüntü tanıma algoritmasının oldukça kapalı bulunduğunu söylüyor. Bu da ölümcül silahların teslim edileceği bir sistem için oldukça büyük bir problem. Bu da hâliyle pek oldukca yapay zekâ uzmanını etik tartışmaların içine sürüklüyor.

Yapay zekânın etik tartışmaları:

Robotlar İnsanların Ölüm Kararını Verebilir

Yapay zekânın iyi mi karar verdiğini tam olarak bilmiyoruz ve yapay zekânın kendisi de bunu açıklamakta pek de başarı göstermiş değil. Prabhakar, “Toplumumuzun geleceğini şekillendirebilecek kuvvetli teknolojiler üstünde çalışabilmek benzer biçimde devasa bir ayrıcalığa sahibiz. Bu da neyin yanlış gidebileceğini sorma sorumluluğu ile geliyor “ ifadelerini kullandı.

Harp, insanlığın buluş etmiş olduğu durumlar içinde muhtemelen en tahmin edilemez, en çirkin, en rahatsız edici ve muhtemelen de en kazançlısı durumunda yer ediniyor. Haliyle mühendisler de yapay zekâ askeri sistemlerinde neyin yanlış gidebileceğini değerlendirmeye çalışıyor.

Harp teknolojilerindeki gelişmeler daima için insanlığın yolunu değiştirir. En rahat örnekler olan mayınlar ve nükleer silahlar, anlaşmaların şeklini ve karar mekanizmalarını değiştirmiştir. Podcast’te konuşan uzmanlar bu noktadan hareketle risklerin iyi mi azaltılabileceğini düşünmeye çağrı ediyor.

RELATED ARTICLES

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Most Popular

Recent Comments