ERHAN KARAKOÇ

Karar vermek, bir konu hakkında bir yargıya varmak ya da sorunu karara bağlamak olarak kullanılsa da, aslında tasarım alanında karar vermeyi daha çok, bir veya daha fazla olasılık arasından seçim yapmak olarak özetleyebiliriz. Bu yazı kapsamında karar vermenin anatomisini, parametrelerini ve insan ile makine karar verme sürecini seçili örneklerle sizlere anlatmaya çalışacağım.

Karar verme süreci seçenekler arasında mantıksal olarak üstün olan bir seçenek olduğunda hem insan için hem de makine için çok kolay olarak nitelendirilebilir. Fakat seçenekler arasındaki yakınsama (convergence) ne kadar artarsa karar vermek de bir o kadar zor bir hal alır. İnsanlar seçme sürecinde belirli parametreleri zihinlerinde düşünerek karar verirler. Fakat bu karar verme sürecine sezgiler, duygular, geçmiş tecrübeler, toplumsal normlar ve buna benzer pek çok girdi katılabilir. Öyle ki; bu durumdan dolayı insanların karar verme süreçleri bir kara kutuya benzetilir. Karar verme sürecindeki bu girdileri çözümleyebilmek için reklam sektöründen tasarım sektörüne, finans sektöründen ticarete kadar pek çok alanda çok sayıda çalışmanın sonucunda, sayısız veri ve tahmin üretilmektedir. Yine de tüm bu çıktılar incelense bile kesin bir yargıya hiçbir zaman varılamamaktadır. Fakat, büyük verinin (big data) hayatımıza girmesiyle insanın eğilimleri üzerine bazı varsayımlar elde edilebilmektedir. İnsanların karar verme süreçlerinin karmaşıklığından bahsetmişken günümüzde makinelerde de bu durum aslında pek farklı değildir. Basit algoritmaların yardımıyla çalışan ve şartlı kararlar veren, if-else sistematiğine ya da bir-sıfır (binary) sisteme göre çalışan makinelerde girdi belirli parametrelere göre değerlendirilerek son kararı, yani çıktıyı oluşturur. Fakat stokastik problemlerin çözümünde kullanılan yapay sinir ağları, soyut makine düşünmesi, bulanık mantık gibi alanların ilerlemesi sayesinde bu süreç insanın karar verme sürecinde olduğu gibi kısmen sezgisel boyuta taşınmıştır. Her ne kadar makinelerin sezgileri ya da duyguları olmasa da; makineler gelişmiş öğrenme sistematiğine ve insan-makine (veya insan-bilgisayar (HCI)) etkileşimine dayalı bir sistematik ile insan duygularını taklit etmeye başlamaktadır. Bu sayede insan ile aynı şekilde verileri işleyerek karar verebilmektedirler. 

Günümüzde karar verme süreçleri özellikle ahlaki ikilemlerde farklı bir boyuta taşınmaktadır. Bu yazı kapsamında ele alacağım, tramvay ikilemi ve MIT Ahlak Makinesi (Moral Machine) konularını bu tür ikilemler için verilebilecek en belirleyici iki örnek olarak düşündüm. 

Tramvay İkilemi, beş insanın yaşamasını sağlamak için bir insanın ölmesine sebep olur musunuz, sorusuyla başlıyor (URL-1). Aşağıdaki iki örnekte de ahlaki açmazlar içeren farklı senaryolarla insanların olaylara yaklaşımları hakkında çıkarımlarda bulunuluyor.

Görsel 1:  Tramvay problemi (URL-2)

Judith Jarvis Thomson tarafından 1985 yılında yayınlanan bu makalede ilk problem tramvay problemi olarak tanımlanmış (Görsel 1). Bu problemde tramvay kendi yolunda giderken rayda beş kişinin olduğu ve eğer herhangi bir müdahale olmazsa beş kişinin hayatını kaybedeceği bir durum var. Bir diğer seçenekte ise, makasın değiştirilmesi bir kişinin hayatını kaybetmesine neden olurken beş kişinin yaşaması sağlanıyor. Yöneltilen soru ise bu karar verme anında siz olsanız makası değiştirir miydiniz? İşte böyle bir durumda verilen seçimler, karar verenin yaşına, yaşam tarzına, kullandığı dile, o anki psikolojisine, eğitim durumuna ve buna benzer çok sayıda parametreye göre değişiklik arz edebiliyor.

Görsel 2:  Üst geçit problemi (URL-2)

Bir diğer problemde ise, üst geçitte arkası dönük ve normal kilonun üzerinde bir kişi var. Aşağıda ise beş kişi var. Size seçenek verilse aşağıdaki beş kişinin yaşaması için üst geçitteki bir kişiyi (burada normal kilonun üzerinde olmasına vurgu yapılıyor) aşağı iterek onun ölümüne sebep olup beş kişinin kurtulmasını sağlar mıydınız? Bu soruda bir öncekine göre eklenen parametre, yani kişinin normalin üzerinde kilosunun olması durumu pek çok kişiyi yeni bir ikileme taşıyabiliyor. Örneğin, bu soruya verilen cevaplarda kişinin normal kiloda olup olmaması karar verme sürecini doğrudan etkileyebiliyor. 

Bu ve buna benzer ahlaki ikilemler ve hatta daha fazla seçenekler içinden seçimler yapmanın önemli olduğu diğer bir konu ise otonom sürüş sistemleri olarak düşünülebilir. Otonom sürüş sistemlerinde genellikle akıllı araçların birbirleriyle iletişim içerisinde olduğu akıllı şehirlere entegre olmuş (yada olma yolunda önemli yol kat etmiş) bir karar verme sistemleri olsa da özellikle otonom sürüşe tam anlamıyla geçiş döneminde çeşitli aksaklıkların olması öngörülmektedir. Bu tür istenmeyen durumlar bir parmak şıklatmasıyla hızlıca ve anında çözülemeyeceğinden bu tür sistemlerin tam verimli bir biçimde işlemesi için kademeli bir geçiş öngörülmektedir. Peki, ne ilgisi var tramvay probleminin bu otonom sürüşle derseniz, işte burada devreye MIT tarafından geliştirilmiş bir web sitesi ve ilgili platform devreye giriyor. 

MIT Ahlak Makinesi (URL-3) tam da bu tür ahlaki ikilemler için tatmin edici çözüm ya da sosyolojik olarak en kabul edilebilir seçeneği bulmak için tasarlanmış bir platform olarak karşımıza çıkıyor. Web sitelerinde belirtildiği üzere “Ahlak Makinesi, kendi kendine giden arabalar gibi makine zekası tarafından verilen ahlaki kararlar hakkında insani bir bakış açısı toplamak için bir platformdur. Sürücüsüz bir arabanın iki yolcuyu veya beş yayayı öldürmek gibi iki kötülükten daha azını seçmesi gereken ahlaki ikilemler yaratıyoruz. Dışarıdan bir gözlemci olarak insanlar hangi sonucun daha kabul edilebilir olduğuna karar veriyorlar” (URL-3). 

Buna ek olarak ahlak makinesinde sizin seçeneklerinizi diğer insanlar ile karşılaştırıp bu ahlaki ikilemlerde sizden başka insanların nasıl bir karar verdiklerini de görebiliyorsunuz. Bu kararların paylaşılmasını ve ahlaki normların tartışılmasını sağlayan bu platform kendi senaryolarınızı tasarlamanıza da imkan sunuyor. Platform, her ne kadar eleştiriye açık ve zorlayıcı seçimler içeren bir karar verme mekanizmasına sahip olsa da, bir gün bu ve benzeri araştırmalardan gelen sonuçların güncel teknolojilere yön vermesi hedefleniyor. 

Bu platformun en önemli amacı, aslında otonom sürüş deneyimi içerisindeki zorlayıcı ve diyalektik sorunlarda en az kötü olanı seçerken duruma göre değişen ahlaki seçimlerin yapılması sürecine katkı sağlamaktır. Ahlak Makinesinin web sitesine girdiğinizde farklı senaryolar hakkında kararlar verebilirsiniz. Bu siteye her girdiğinizde farklı parametrelere göre tasarlanmış karar verme senaryoları ile karşılaşabilirsiniz.  Aşağıdaki görsellerde benim karşıma çıkan üç farklı senaryo örneğini sizinle paylaşacağım.  

Görsel 3: Tek kişiye göre karar verme (URL-3)

Ahlak makinesinde yaşa göre seçilim senaryoları çok defa karşınıza çıkabilen senaryolardan. Görsel 3’teki senaryoyu görece daha kolay ve ilk bakışta neyi ölçtüğünü tahmin edebildiğiniz bir kurgu olarak tanımlayabiliriz. Eğer sağ taraftaki senaryoyu seçerseniz ileri yaşlı kişinin, diğer senaryoyu seçerseniz çocuğun yaşamasını sağlayacaksınız. Fakat kötü haber şu ki, birinin yaşaması diğerinin yaşamına son vermenize sebep oluyor. Bu tür tek parametreli görünen seçimlerde bile aslında birden çok karar verme etkeni var. Örneğin, bu senaryoda sadece yaş aralığına değil otonom aracın hareketini değiştirip değiştirmeyeceğinizi de ölçümlüyor. 

Görsel 4: Hayvanların da bulunduğu karma gruplara göre karar verme (URL-3)

Yine boş aracın olduğu ve yayaların karşıdan karşıya geçmekte olduğu farklı insan sayısının ve farklı nitelikteki insanların ve birer kedinin dahil olduğu karmaşık bir senaryo.  Görsel 4’teki senaryoda mevcut hareketi korursanız; bir iş kadınını, bir kadın doktoru, bir erkek doktoru ve bir kediyi kurtaracaksınız. Diğer seçeneğiniz ise bir iş kadınını, bir iş adamını, bir kadın doktoru, bir erkek doktoru ve bir kedinin yaşamasını sağlayacaksınız. Bir önceki senaryodaki gibi seçiminiz bir grubu kurtarırken diğer grubun ölümüne sebep olacak. Burada dikkat etmeniz gereken diğer bir detay ise, yaya ışıklarının da farklı olması. Bu problem, kişi sayısının, kişilerin niteliklerinin, kurala uyup uymamanın ölçüldüğü bir senaryo olarak özetlenebilir.

Görsel 5: Sadece insanların bulunduğu karma gruplara göre karar verme (URL-3)

Otonom aracın içeriğinde kişi sayısının karşıdan karşıya geçen kişi sayısına eşit olduğu ve yayaların karşıdan karşıya geçmekte olduğu farklı insan niteliklerinin dahil olduğu karmaşık bir senaryo.  Görsel 5’teki senaryoda seçeneklerden birinde üç erkek, biri normalüstü kilolu olmak üzere iki kadın ve diğer seçenekte bir kadın, bir kadın atlet ve üç erkek atletin yaşamasını sağlayıp diğer grubun ölümüne sebep olacaksınız. Buradaki en önemli parametrelerden birisi araç içindekileri aracın dışındakilere tercih edip etmeyeceğiniz bir diğeri ise karşıdan karşıya geçen ve araçtaki kişilerin fiziksel görünüşleri olarak belirlenmiştir. 

Bütün senaryolarda ortak olan seçme ve karar verme durumları kişiden kişiye çok fazla değişkenlik göstermektedir. Tabi fiziksel durumlarına ya da kıyafetlerine bakarak atlet ve ya doktor olduklarına nasıl karar verdikleri konusunu henüz tam olarak kavrayamamış olsam da sanırım bu kararları veren araçların üst düzey makine görüsüne (computer vision) sahip olduğu yakın gelecekte bu çıkarımları yaptığını düşünebiliriz. Belki de bazı ülkelerin yüz tanıma sistemlerini aktif bir biçimde kullanması yoluyla, karşıdan karşıya geçen insanların ve aracın içindeki insanların kimlik bilgilerine, sosyal medya hesaplarına ve özgeçmişlerine ulaşabildiği distopik (kimine göre de ütopik)  daha farklı bir geleceğe göre mi tasarlandığını bilemiyorum. Fakat burada iki önemli şeyden söz edebiliriz. Tramvay probleminde ve üst geçit probleminde karar veren mekanizma insan, diğerinde otonom sürüşe sahip bir araç olmasına rağmen belki de çok farklı kararlar vermeyecekleri öngörülebilir. Çünkü aslında tüm kararların kaynağı insanların seçimlerinin değerlendirilmesi diyebiliriz. Etik olarak bu durumu çok desteklemeyen ve eleştiren yazıları da bulabilirsiniz (URL-4).

Sonuç olarak, belirtmek isterim ki, bu karar verme mekanizmalarındaki ayırıcı tanımları kişisel olarak desteklemiyorum. Sadece konuyla ilgili meraklı insanların araştırması için yapılmış çalışmalardan bazı parçaları ele alıp incelemeyi hedefledim. Öyle umuyorum ki hiçbir insan ya da makine bu tür ikilemleri çözümlemek zorunda kalmaz.

Kaynaklar

Thomson, J. J. (1984). The trolley problem. Yale Law Journal, 94, 1395.

URL-1: https://www.sciencealert.com/the-trolley-dilemma-would-you-kill-one-person-to-save-five

URL-2:http://www.cienciacognitiva.org/?p=1147

URL- 3: https://www.moralmachine.net

URL- 4: https://dataethics.eu/the-amoral-of-the-moral-machine/





Bir Cevap Yazın

Aşağıya bilgilerinizi girin veya oturum açmak için bir simgeye tıklayın:

WordPress.com Logosu

WordPress.com hesabınızı kullanarak yorum yapıyorsunuz. Çıkış  Yap /  Değiştir )

Google fotoğrafı

Google hesabınızı kullanarak yorum yapıyorsunuz. Çıkış  Yap /  Değiştir )

Twitter resmi

Twitter hesabınızı kullanarak yorum yapıyorsunuz. Çıkış  Yap /  Değiştir )

Facebook fotoğrafı

Facebook hesabınızı kullanarak yorum yapıyorsunuz. Çıkış  Yap /  Değiştir )

Connecting to %s