Yapay Zekanın Kalbindeki Karanlık Sır

2016 yılında, New Jersey’in Monmouth İlçesi’ndeki sessiz yollara kendi kendini süren tuhaf bir araba çıkarıldı. Yonga üreticisi Nvidia’daki araştırmacıların geliştirdiği bu deneysel vasıta, diğer özerk arabalardan farklı görünmüyordu; ancak Google, Tesla veya General Motors’un tanıttığı şeylerden farklıydı ve yapay zekânın yükselen gücünü göstermişti. Araba, bir mühendis veya programcının sağladığı bir tek talimatı bile izlememişti. Bunun yerine tamamen, araba süren bir insanı izleyerek kendine sürmeyi öğrenmesini sağlayan bir algoritmaya dayanıyordu.

Bir arabanın bu şekilde kendi kendini kullanmasını sağlamak etkileyici bir başarıydı. Fakat, arabanın kendi kararlarını nasıl verdiği tamamen belli olmadığından, aynı zamanda biraz tedirgin ediciydi. Aracın algılayıcılarından gelen bilgiler doğrudan, veriyi işleyen ve daha sonra direksiyonu, frenleri ve diğer yapıları işletmek için gereken emirleri ulaştıran devasa bir yapay sinir ağına gidiyordu. Sonuçlar, bir insan sürücüden bekleyebileceğiniz tepkilerle uyuşuyor gibi görünüyor. Fakat ya günün birinde beklenmedik bir şey yaparsa; bir ağaca çarpar veya yeşil ışıkta durursa? Şu anki duruma göre, bunun sebebini bulmak zor olabilir. Sistem o kadar karmaşık ki, onu tasarlayan mühendisler bile herhangi bir eylemin sebebini tam olarak belirlemekte zorlanabilir. Üstelik bunu soramazsınız da; yaptığı şeyi neden o şekilde yaptığını her zaman açıklayabilen böylesi bir sistem tasarlamanın belirgin bir yolu yok.

Bu aracın gizemli zihni, yapay zekânın belli belirsiz görünen bir meselesine işaret ediyor. Arabanın temelinde yer alan ve derin öğrenme olarak bilinen yapay zekâ teknolojisinin, son yıllarda sorun çözme konusunda çok güçlü olduğu kanıtlandı ve bu teknoloji görüntü içeriğini tahmin etme, ses tanıma ve dil tercümesi gibi işlerde geniş ölçüde uygulandı. Şimdi aynı yöntemlerin bütün endüstrileri değiştirmek için ölümcül hastalıkları teşhis etmek, milyon dolarlık ticari kararlar vermek vb. gibi sayısız şey yapabileceğine dair umutlar var.

Fakat derin öğrenme gibi yöntemleri, kendi yaratıcıları için daha anlaşılabilir ve kullanıcıları için daha güvenilir hale getirmek amacıyla yeni yöntemler bulmadıkça bu durum gerçekleşmeyecek; daha doğrusu gerçekleşmemeli. Yoksa, başarısızlıkların ne zaman meydana gelebileceğini tahmin etmek zor olacaktır ve meydana gelmeleri kaçınılmazdır. Nvidia’nın arabasının hâlâ “deneysel” olmasının sebeplerinden biri de zaten bu. Halihazırda, kimin şartlı tahliye olacağını, kimin borç para almak için onaylanacağını ve kimin işe alınacağını belirlemeye yardımcı olması için matematiksel modeller kullanılıyor. Eğer bu matematiksel modellere erişim sağlayabiliyorsanız, bunların muhakemesini anlamak mümkün olur. Fakat bankalar, ordu, işverenler ve diğerleri artık dikkatlerini daha karmaşık makine öğrenimi yaklaşımlarına yöneltiyor. Bu yaklaşımlar, otomatikleştirilmiş karar vermeyi hepten anlaşılmaz hale getirebiliyor. Bu yaklaşımların en yaygın olanı derin öğrenme, bilgisayarları programlama konusunda esasen farklı bir yolu temsil ediyor. Makine öğrenimi uygulamaları üzerinde çalışan bir MIT profesörü olan Tommi Jaakkola şöyle söylüyor: “Bu halihazırda konuyla ilgili bir sorun ve gelecekte çok daha ilgili hale gelecek. Bu ister bir yatırım kararı ya da tıbbi bir karar olsun, ister askerî bir karar olsun, sadece bir ‘kara kutu’ yöntemine bel bağlamak istemezsiniz.”

Bir yapay zekâ sistemini, vardığı sonuçlara nasıl vardığı hakkında sorgulayabilmenin esas bir yasal hak olduğuna dair halihazırda bir tartışma mevcut. Avrupa Birliği, 2018 yılının yazından başlayarak, şirketlerin kullanıcılara otomatikleşmiş sistemlerin vardığı kararlar hakkında bir açıklama sağlayabilmesini zorunlu tutabilir. Bu durum, reklam veya şarkı önerileri sunmak amacıyla derin öğrenme kullanan uygulamalar ile internet siteleri gibi, yüzeyde nispeten basit görünen sistemler için bile imkansız olabilir. Bu hizmetleri yürüten bilgisayarlar kendi kendilerini programlamışlardır ve bunu, bizim anlayamadığımız şekillerde yapmışlardır. Bu uygulamaları inşa eden mühendisler bile onların davranışlarını tam olarak açıklayamıyor.

Bu durum, kafa kurcalayan sorular doğuruyor. Teknoloji ilerledikçe, yakın zaman içinde yapay zekâ kullanmanın bir inanç sıçraması gerektirdiği bazı eşiklerin ötesine geçebiliriz. Biz insanlar elbette kendi düşünce süreçlerimizi de her zaman tam manasıyla açıklayamıyoruz; ancak insanlara sezgisel olarak güvenmek ve onları ölçmek için çeşitli yöntemler buluyoruz. Bu durum, bir insanın yaptığından farklı şekilde düşünen ve kararlar veren makineler için de mümkün olacak mı? Daha önce üreticilerinin anlamadığı şekillerde işleyen makineleri hiç inşa etmemiştik. Tahmin edilemez veya anlaşılmaz olabilen zeki makinelerle iletişim kurmayı (ve onlarla anlaşmayı) ne kadar umabiliriz? Bu sorular, Google’dan Apple’a ve bunların arasında bulunan, zamanımızın en büyük düşünürlerinden biriyle bir görüşmenin de bulunduğu pek çok yere kadar, yapay zekâ algoritmaları üzerinde yapılan yeni teknoloji araştırmalarına doğru bir yolculuğa çıkarıyor.