
Toplum genellikle askerler, casuslar ve kolluk kuvvetleri gibi bazı insanların ortak iyilik için öldürmeye zorlandığını kabul eder. Başka bir deyişle, “öldürme lisansı” vardır. Hedefleri özerk olarak seçebilen ve onları vurabilen teknolojik olarak gelişmiş makineler geliştiriyoruz. Bunu insan operatörler için daha az riskle yapabilirler. Bu özerk silahla ilgili ahlaki sorun, kurbanı insanlıktan çıkarmasıdır.
Ian Fleming tarafından yaratılan James Bond’un dünyasında, 007’nin “öldürme lisansı” vardır. Bu, Bond’un ölümcül bir silahı daha büyük iyilik için kullanıp kullanmayacağına karar verme hakkına sahip olduğu anlamına gelir. Ama insanlar duygusal ve kararsızdır. Hataya ve önyargıya eğilimliyiz. Bu bağlamda, şu soru ortaya çıkıyor: Kolluk kuvvetleri için “öldürme lisansı” gerekliyse, belki de bunun yerine bir robota vermeye değer?
Bu artık teorik bir sorun değil. Artık uzun menzilli füzelerden insansız hava araçlarına kadar teknolojinin yardımıyla giderek daha fazla savaşın yürütüldüğü bir dünyada yaşıyoruz. Bu soruya daha kişisel olarak bakalım: Örneğin, yerel polis departmanı bölgenizde öldürme robotları kullanma hakkına sahip olabilir mi?
Servis Et ve Savunma 2.0
“Katil robotlar” ın daha resmi bir adı var: “ölümcül özerk silahlar” (Lethal Autonomous Systems, SAS). Son zamanlarda, haberlerde çok yer aldılar. Kasım ayında, San Francisco Polis Departmanı, şehrin yasama organından polisin öldürme yeteneğine sahip robotları kullanmasına izin vermesini istedi. San Francisco polisi, “insanların veya memurların ölüm riski yakın olduğunda ve San Francisco polisi için mevcut olan diğer güç kullanımından daha ağır bastığında” robotları kullanmak istiyor. Başka bir deyişle, SAS’ı yalnızca tehlikeli bir durumda en iyi çare olduklarında kullanmak isterler.
Polis için, ölümcül robotların kullanımı benzeri görülmemiş bir şey değil. 2016 yılında Dallas polisi, beş memuru öldürmüş olan silahlı bir adamı yok etmek için patlayıcılı bir robot sipariş etti. Auckland polisi, bombaları güvenilir bir şekilde etkisiz hale getiren bir av tüfeğiyle donanmış bir robota sahip ve robotu gerçek mühimmatla donatmayı düşündüler (bu fikri terk etmelerine rağmen).
Başlangıçta, San Francisco polisinin talebi kabul edildi, ancak kararın tersine çevrilmesi için sivil özgürlükler protesto gruplarının baskısı sadece bir hafta sürdü. Bu fikre başından beri itiraz eden şehrin milletvekillerinden biri olan Dean Preston, “San Fransiskanlar yüksek sesle ve net bir şekilde konuştular: Şehrimizde polis katil robotlarına yer yok. Yerel kolluk kuvvetlerinin güç kullanımını azaltmak için çalışmalıyız, onlara insanları öldürmek için yeni araçlar vermemeliyiz.”
Ahlaki İkilem
Bu anlaşmazlıkta kim haklı? Sorumlu bir şekilde programlanmış ve uygun kontrol altında olan bir robot, sivillerin hayatlarını koruyabiliyor veya kurtarabiliyorsa, neden kullanılamıyor? İnsanlar ve AI için iki önemli ahlaki farklılık vardır.
Birincisi, bilgisayarların savaş ortamlarında veya kolluk kuvvetleri çalışmaları yaparken karmaşık etik kararları ne ölçüde alabilecekleri ile ilgilidir. Ateşli silahların veya silahların kullanımını içeren hemen hemen her karmaşık olay, sivillerin yaşamlarıyla ilişkili bir risk içerir. Bununla birlikte, bir kişi ahlaki dikkatli olabilir. Örneğin, çocuklar için çok yüksek bir risk içeriyorsa görevi yerine getirmeyi reddedebilir. Veya ajan, hedefi uygunsuz veya hatalı bulursa taktiklerini değiştirebilir. Silahlı bir polis memuru, bir robotun sahip olmadığı bir seçim derecesine sahiptir: ikincisi sadece emirleri takip eder. İnsan operatörleriyle temasını kaybeden birçok SAS, ihtiyatlılık gösteremez. Ahlaki bir karar veremezler.
SAS “Stop Killer Robots” un kullanımına karşı yürütülen kampanyada şöyle deniyor: “Makineler bizi insan olarak değil, sıralanması gereken başka bir kod parçası olarak görüyor.” Holokost’u sahneleyen Adolf Eichmann’ın davasını izleyen Anna Arendt, işten uzaklaştırılmasının kötülüğü daha da kötüleştirdiğine inanıyordu. Uyulması gereken emirleri ve uyulması gereken kotaları vardı. Elektronik tabloları gördü, insanları değil. Arendt’in dediği gibi:
Eichmann ne Iago ne de Macbeth idi.Kişisel gelişimi önemsemedeki olağanüstü gayreti dışında, hiçbir nedeni yoktu …ne yaptığını hiç fark etmedi…Hiçbir şekilde aptallıkla özdeş olmayan saf düşüncesizlik, zamanın en büyük suçlularından biri haline geldiğini önceden belirlemişti.Gerçeklikten böyle bir kopuş ve böyle bir düşüncesizlik, tüm kötü içgüdülerin toplamından daha fazla tahribata yol açabilir.
Bunu okurken, Eichmann’da robotun yönünü görmek zor değil – insanlık dışı hesaplanmış bir yaşam görüşü. Dronlar veya robotlar, kendi başlarına bir mermi veya mızraktan daha büyük bir kötülük değildir. Ancak yapay zekanın kimin hayatını durduracağına karar verebileceği gerçeği çok daha fazla. ASC, bir kişinin hayatını değerli olarak değerlendiremez, bu nedenle bir kişiyi değerlendirebileceklerini hayal etmek zordur. Başka bir deyişle, katil robotlar, Arendt’in ünlü ifadesi “kötülüğün sıradanlığının” en yüksek tezahürüdür.