Gelecek

Öldürme lisansı: silahlı robotlar artık bir fantezi değil

photography of human holding gun
Photo by Mike Navolta on Pexels.com

Toplum genellikle askerler, casuslar ve kolluk kuvvetleri gibi bazı insanların ortak iyilik için öldürmeye zorlandığını kabul eder. Başka bir deyişle, “öldürme lisansı” vardır. Hedefleri özerk olarak seçebilen ve onları vurabilen teknolojik olarak gelişmiş makineler geliştiriyoruz. Bunu insan operatörler için daha az riskle yapabilirler. Bu özerk silahla ilgili ahlaki sorun, kurbanı insanlıktan çıkarmasıdır.

Ian Fleming tarafından yaratılan James Bond’un dünyasında, 007’nin “öldürme lisansı” vardır. Bu, Bond’un ölümcül bir silahı daha büyük iyilik için kullanıp kullanmayacağına karar verme hakkına sahip olduğu anlamına gelir. Ama insanlar duygusal ve kararsızdır. Hataya ve önyargıya eğilimliyiz. Bu bağlamda, şu soru ortaya çıkıyor: Kolluk kuvvetleri için “öldürme lisansı” gerekliyse, belki de bunun yerine bir robota vermeye değer?

Bu artık teorik bir sorun değil. Artık uzun menzilli füzelerden insansız hava araçlarına kadar teknolojinin yardımıyla giderek daha fazla savaşın yürütüldüğü bir dünyada yaşıyoruz. Bu soruya daha kişisel olarak bakalım: Örneğin, yerel polis departmanı bölgenizde öldürme robotları kullanma hakkına sahip olabilir mi?

Servis Et ve Savunma 2.0

“Katil robotlar” ın daha resmi bir adı var: “ölümcül özerk silahlar” (Lethal Autonomous Systems, SAS). Son zamanlarda, haberlerde çok yer aldılar. Kasım ayında, San Francisco Polis Departmanı, şehrin yasama organından polisin öldürme yeteneğine sahip robotları kullanmasına izin vermesini istedi. San Francisco polisi, “insanların veya memurların ölüm riski yakın olduğunda ve San Francisco polisi için mevcut olan diğer güç kullanımından daha ağır bastığında” robotları kullanmak istiyor. Başka bir deyişle, SAS’ı yalnızca tehlikeli bir durumda en iyi çare olduklarında kullanmak isterler.

Polis için, ölümcül robotların kullanımı benzeri görülmemiş bir şey değil. 2016 yılında Dallas polisi, beş memuru öldürmüş olan silahlı bir adamı yok etmek için patlayıcılı bir robot sipariş etti. Auckland polisi, bombaları güvenilir bir şekilde etkisiz hale getiren bir av tüfeğiyle donanmış bir robota sahip ve robotu gerçek mühimmatla donatmayı düşündüler (bu fikri terk etmelerine rağmen).

Başlangıçta, San Francisco polisinin talebi kabul edildi, ancak kararın tersine çevrilmesi için sivil özgürlükler protesto gruplarının baskısı sadece bir hafta sürdü. Bu fikre başından beri itiraz eden şehrin milletvekillerinden biri olan Dean Preston, “San Fransiskanlar yüksek sesle ve net bir şekilde konuştular: Şehrimizde polis katil robotlarına yer yok. Yerel kolluk kuvvetlerinin güç kullanımını azaltmak için çalışmalıyız, onlara insanları öldürmek için yeni araçlar vermemeliyiz.”

Ahlaki İkilem

Bu anlaşmazlıkta kim haklı? Sorumlu bir şekilde programlanmış ve uygun kontrol altında olan bir robot, sivillerin hayatlarını koruyabiliyor veya kurtarabiliyorsa, neden kullanılamıyor? İnsanlar ve AI için iki önemli ahlaki farklılık vardır.

Birincisi, bilgisayarların savaş ortamlarında veya kolluk kuvvetleri çalışmaları yaparken karmaşık etik kararları ne ölçüde alabilecekleri ile ilgilidir. Ateşli silahların veya silahların kullanımını içeren hemen hemen her karmaşık olay, sivillerin yaşamlarıyla ilişkili bir risk içerir. Bununla birlikte, bir kişi ahlaki dikkatli olabilir. Örneğin, çocuklar için çok yüksek bir risk içeriyorsa görevi yerine getirmeyi reddedebilir. Veya ajan, hedefi uygunsuz veya hatalı bulursa taktiklerini değiştirebilir. Silahlı bir polis memuru, bir robotun sahip olmadığı bir seçim derecesine sahiptir: ikincisi sadece emirleri takip eder. İnsan operatörleriyle temasını kaybeden birçok SAS, ihtiyatlılık gösteremez. Ahlaki bir karar veremezler.

SAS “Stop Killer Robots” un kullanımına karşı yürütülen kampanyada şöyle deniyor: “Makineler bizi insan olarak değil, sıralanması gereken başka bir kod parçası olarak görüyor.” Holokost’u sahneleyen Adolf Eichmann’ın davasını izleyen Anna Arendt, işten uzaklaştırılmasının kötülüğü daha da kötüleştirdiğine inanıyordu. Uyulması gereken emirleri ve uyulması gereken kotaları vardı. Elektronik tabloları gördü, insanları değil. Arendt’in dediği gibi:

Eichmann ne Iago ne de Macbeth idi.Kişisel gelişimi önemsemedeki olağanüstü gayreti dışında, hiçbir nedeni yoktu …ne yaptığını hiç fark etmedi…Hiçbir şekilde aptallıkla özdeş olmayan saf düşüncesizlik, zamanın en büyük suçlularından biri haline geldiğini önceden belirlemişti.Gerçeklikten böyle bir kopuş ve böyle bir düşüncesizlik, tüm kötü içgüdülerin toplamından daha fazla tahribata yol açabilir.

Bunu okurken, Eichmann’da robotun yönünü görmek zor değil – insanlık dışı hesaplanmış bir yaşam görüşü. Dronlar veya robotlar, kendi başlarına bir mermi veya mızraktan daha büyük bir kötülük değildir. Ancak yapay zekanın kimin hayatını durduracağına karar verebileceği gerçeği çok daha fazla. ASC, bir kişinin hayatını değerli olarak değerlendiremez, bu nedenle bir kişiyi değerlendirebileceklerini hayal etmek zordur. Başka bir deyişle, katil robotlar, Arendt’in ünlü ifadesi “kötülüğün sıradanlığının” en yüksek tezahürüdür.

İlgili

apple iphone desk laptop

Erişimde Ludomania: Akıllı Telefonlar Oyun Bağımlılığını Nasıl Neredeyse Tedavi Edilemez Hale Getirdi?

Kumar bağımlılığı olan insanları tedavi eden bir terapist olarak, son birkaç yılda sadece tipik müşterimin profilinde değil, aynı zamanda kumar probleminin nasıl geliştiğinde de değişiklikler olduğunu fark ettim….

woman sitting on luggage

Covid’i Çıkarmak: Toplumun Pandemik Anılara İhtiyacı Var mı?

Pandemi döneminde hayatınızın son üç yılını ne kadar hatırlıyorsunuz? Kaç şeyi unuttunuz? “Çok eski zaman”dan bu yana çok şey değişti. Başarısız mezuniyet baloları, tuvalet kağıdı sıkıntısı, sağlık çalışanlarına…

photograph of a brain on a blue surface

Kafadaki haberci: “tekno-telepati” için herhangi bir olasılık var mı?

“Eski güzel telepati” – ya da düşüncelerin bir zihinden diğerine doğrudan aktarılması – hala hayal gücünü en az üç nedenden dolayı heyecanlandırıyor. Birincisi, dilin sınırlamalarının ve dolayısıyla “çeviri…

white space ship and brown planet

Ve Mars’ta çiçek açan elma ağaçları olmayacak: başarısız yeniliklere şüpheci bir bakış

Gelecekteki teknolojik atılımların tahminlerini analiz ederken, şüphecilik uygundur. Mars’taki kolonilerden kendi kendini süren arabalara kadar, icatların tarihi, yalnızca çok uzak bir gelecekte (eğer varsa) yerine getirilebilecek vaatlerle doludur….

Zinnia flower in Cupola window

Mutlu Olacak Kimse Yok: İnsanlığın Sonu Etiği Üzerine Üç Bakış

Kıyamet Günü saati şu anda gece yarısına 90 saniye veya ölüm, bu saatin 1947’deki kuruluşundan bu yana gösterdiği en yakın mesafeyi gösteriyor. Alarmın nedenleri çeşitlidir: iklim krizi ve…

Black woman experiencing VR, South

Ve düşünmek için zamanınız olmayacak: nöropazarlamanın gelişimi tehlikeli mi?

Son birkaç on yılda, nöroloji alanındaki araştırmalar sayesinde, insan beyninin aktivitesini ölçebilen çok çeşitli teknolojiler ortaya çıkmıştır. Fonksiyonel manyetik rezonans görüntüleme, implante edilebilir elektrot sistemleri, elektroensefalogramlar (EEG) ve…

Bir Cevap Yazın

0 Yorum
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x