Açıklanabilir, Sorumlu ve Güvenilir Yapay Zekâ

“Öğrenmenin en önemli kısmı aslında unutmaktır.” Naftali Tishby

Kaynak: Unsplash-@joshua-Sortino

⏰ Bundan yaklaşık bir buçuk yıl önce “Açıklanabilir Yapay Zeka Nedir ve İhtiyaç Mıdır?” başlıklı bir yazı kaleme almıştım. Aynı konuyla ilgili derinleşmekte fayda olabileceğini düşündüm. Hem biraz daha teknik hem de iş değerlerini artırmak için nasıl bir perspektiften bakılabileceği üzerine kafa yorabiliriz.

Derin öğrenme çok sayıda doğrusal olmayan fonksiyonu kullanan yapay sinir ağlarının günümüzdeki adıdır. Yapay sinir ağlarının 90’lı yıllardaki popülaritesinin çok üstüne çıkmasının sebebi insan seviyesine erişen önemli başarılara imza atmış olmasıdır. Sezgisel olarak, doğrusal olmayan fonksiyonların çok sayıda katmanı, ağın ham veriler ve tahmin arasındaki çeşitli soyutlama düzeylerinde özellikleri öğrenmektedir.

Derin öğrenme katmanlarda öğrenilen özelliklerin basitleştirilmiş gösterimi

Ancak çok sayıda doğrusal olmayan fonksiyonun karmaşık bir şekilde sonuçlar üretmesi insan tarafından (hatta bazen kendi geliştiricisi tarafından) yorumlanması ve anlaşılması zor bir noktaya gelmiştir. Bu yüzden de özellikle hastalık teşhisi gibi sağlık uygulamalarında, kredi ödeneği gibi bankacılık uygulamalarında veya hukukta ceza uygulamalarında, özetle; güvenlik açısından şeffaflık gerektiren uygulamalarda hala derin öğrenme yerine regresyon ya da karar ağaçları gibi daha kolay açıklanabilen modeller kullanılmaktadır.

Yaklaşımlara Göre Performans ve Açıklanabilirlik

Yapay sinir ağlarının ve bazı makine öğrenmesi yaklaşımlarının karar verme süreçleriyle ilgili şüpheler haksız değildir. Bu tip sistemlerde karar verilirken veri kümelerindeki korelasyonlardan faydalanılır. Bazen veri kümesindeki istatistiksel önyargılar sahte korelasyonların üretilmesine sebep olabilir. Örneğin; derin öğrenme yaklaşımıyla diğer yöntemlerden daha başarılı şekilde “zatürre” (pnömoni) teşhisi konulabilir. Ancak bu teşhis beklenmedik sonuçlar doğurabilir. Bu analiz ile bağlantılı olarak eğitim setinin “astım geçmişi” olan hastaların zatürreden ölme riskinin daha düşük olduğunu söyler. Ancak bu model, astımlı hastalara daha hızlı ve daha fazla ilgi gösterildiğinden (dolayısıyla, ölüm oranları daha düşük olur), aslında daha yüksek risk altında oldukları ortaya çıkar. Yani astım hastaları ile iyi igilenildiği için ölüm riski düşük olarak belirleniyor, aslında astımlı hastalar için -ilgilenilmediğinde- zatürre son derece önemli bir risktir. Kısacası, pratikte bu tür korelasyonlara dayanan bir model kullanmanın tehlikeleri vardır.

Kara kutu (black-box) sistemlerindeki bir başka güvensizlik kaynağı; ırkçılık, cinsiyetçilik veya diğer ayrımcılık ve öznellik türleri gibi bu sistemlerin geliştirebileceği potansiyel önyargıdan kaynaklanır.

Birkaç kısa tanımı hatırlamakta fayda olabilir:

👾 Pekala, gelelim açıklanabilirlik konusuna;

Derin öğrenme yaklaşımları ile görüntü işleme uygulamalarına tek-piksellik ataklar yapılabildiğinden önceki yazımda detaylı olarak bahsetmiştim. Koca görüntüde yalnızca bir pikseli değiştirdiğimizde gözümüz hala görüntüyü doğru şekilde yorumlayabilirken, derin öğrenme yöntemleriyle oluşturduğumuz model çok büyük hatalar yapabiliyor. Üretici çekişmeli ağlar (Generative Adversarial Networks), doğal dil işleme ve konuşma tanıma gibi diğer alanlarda da önemli başarı oranlarına sahiptir. Atak saldırılarının ortaya çıkardığı derin sinir ağlarının kırılganlığı, bu yöntemlerin temelindeki öğrenilmiş karar verme süreçlerine şüphe uyandırıyor. Bu nedenle, sinir ağı yaklaşımlarının yaygın kamu güvenini kazanması ve bu sistemlerin gerçekten adil olmasını sağlamak için, bu modellerin kararları için insan tarafından anlaşılır açıklamalara sahip olmamız gerekir.

  • İlk olarak, yapay zekâ teknolojileri ile kararların alındığı sistemlerden faydalanacak olan hastalar veya müşteriler gibi, son kullanıcılara gerekçelendirme sağlamak için açıklamalar gereklidir. Aynı zamanda bazı ülkelerde, örneğin 2016'da Avrupa Birliği’nde kabul edilen GDPR kapsamında, veri sorumlusu olarak kişisel veri işleyenlerin bu işleme faaliyetine ilişkin olarak kişisel verisi işlenen ilgili kişileri bilgilendirme yükümlülüğü vardır.
  • İkincisi, açıklanabilirlik sistemi kullanacak meslek grupları için de önemlidir. Örneğin; doktorlar ve yargıçlar gibi, bir sistemin güçlü yönlerini ve sınırlamalarını daha iyi anlamak ve sistemin tahminlerine uygun şekilde güvenmek ve bunları uygulamak isteyeceklerdir.
  • Üçüncüsü, açıklanabilirlik mükemmel bir bilgi keşfi kaynağı olabilir. Sinir ağlarının verilerde örüntüleri bulmada özellikle iyi olduğu bilinmektedir. Bu nedenle, sinir ağları tarafından öğrenilen algoritmaları açıklayabilmek, insanların çok büyük veri kümelerinden çıkarması zor olacak değerli bilgilerin açığa çıkmasını da sağlayabilir.
  • Son olarak sinir ağlarını açıklayabilmek, bu yöntemlerin geliştiricilerinin / araştırmacılarının sistemleri daha iyi anlamasına ve iyileştirmesine olabilir.

İş Dünyasında Yapay Zekâ Teknolojilerinin Açıklanabilirliği İhtiyacı Nereden Gelmektedir?

Yapay zekâ (YZ), iş dünyası ve toplum için 15 trilyon dolarlık dönüşümsel bir fırsat olsa bile, daha karmaşık hale geldikçe, algoritmik bir “kara kutu” kararları etrafımızı sarıyor. Aynı zamanda, açıklanabilirliği daha da kritik hale getiriyor.

PwC’nin 2017 Küresel CEO Anketine katılan iş liderlerinin %67'si, YZ ve otomasyonun önümüzdeki beş yıl içinde sektörlerindeki paydaş güven düzeylerini olumsuz etkileyeceğine inanıyor.

🔷 Gerekli yorumlanabilirlik düzeyinin ölçülmesi için kriterler

Kullanım senaryosu ne kadar kritik olursa, o kadar fazla yorumlanabilirlik gerekecektir. Bununla birlikte, kara kutunun içine girme ihtiyacı, YZ sisteminin kapsamını sınırlayabilir. Yorumlanabilirliği iyileştirirken doğruluğu ve performansı artırma gibi alanlardaki ödünleşmeleri nasıl dengeleyebilirsiniz? Bir kullanım senaryosunun faydası ve riskinin kapsamlı bir değerlendirmesi, yorumlanabilirlik ve risk yönetimi ile ilgili bir dizi tavsiye hakkında bilgi verir. Bu, performansı ve yatırım getirisini optimize etmek için yöneticilerin karar vermesine yardımcı olur.

Kullanım alanı kritiklik bileşenleri

Yukarıda belirtilen 6 alanda ana kullanım durumu öncelik değerlendirme kriterleri ana hatlarıyla gösterilmektedir. Uygulamada, kullanım senaryosunda açıklanabilirliğin kritikliği, ağırlıklı olarak üç ekonomik faktör tarafından yönlendirilir:

1️⃣ Tek bir tahminin potansiyel ekonomik etkisi;

2️⃣ Tahminin sonucu olarak alınabilecek eylemlerin seçimine göre tahminin neden yapıldığını anlamanın ekonomik faydası;

3️⃣ Bilginin ekonomik faydası, birden çok tahmin boyunca eğilimlerin ve örüntülerin anlaşılmasıyla elde edilir. Ancak kuruluşlar, idari risk, ticari itibar ve titizlik gibi ekonomik ve teknik etmenlerin ötesinde faktörlerin önemine daha yüksek bir değer verir.

Kullanım alanı kritikliği

Açıklanabilir YZ, kuruluşların YZ üzerinde sorumlu bir şekilde hizmet vermesine yardımcı olan, Sorumlu YZ (Responsible AI) için bir çerçeve oluşturulmuştur.

Bu çerçeveyi şöyle yorumlayabiliriz: Bir organizasyon, açıklama yeteneği için gerekli seviyenin ilerisindeyse, bu, organizasyonun, artan model doğruluğu için ek açıklanabilirlikten bir miktar ödün verebileceği anlamına gelir. Bu bir gap analizi ile gösterilmektedir. Aynı bağlamda, açıklama yeteneğinin gerekli düzeyin altına düştüğü bir senaryo için daha fazla açıklanabilirlik elde etmek adına model tahmin doğruluğunu azaltmayla sonuçlanacaktır.

🔷 Farklı algoritma sınıflarının ve öğrenme tekniklerinin açıklanabilirlik ölçeği

Açıklanabilirlik, post-hoc yorumlar olarak görülen belirli bir sonuçta ortak görüşün oluşması anlamına gelir. Aşağıda sıralanan modellerin çoğu, sonuçların neden veya nasıl elde edildiğine dair doğrudan açıklama yapmadığından, ne kadar kolay veya son kullanıcı için bir modelin neden belirli bir karar verdiğini gösterebilmek zordur. Bu öğrenme tekniklerinin her biri, yeni bilgilerden nasıl öğrendiklerini gösteren farklı yapılara sahiptir.

🎯 Kapatırken

İnsanların YZ ile ilgili yukarıda bahsedilen endişelerini ele aldığımızda, Güvenilir YZ (Trustworthy AI) kavramının ilkelerinin benimsenmesi topluma faydalı sonuçlar üretilebilecektir.

Uluslararası düzeyde “Güvenilir YZ”nın 6 boyutu hakkında halihazırda bir fikir birliği vardır:

  • adalet,
  • hesap verebilirlik,
  • değer uyumu,
  • sağlamlık,
  • tekrarlanabilirlik,
  • açıklanabilirlik.

Adalet, hesap verebilirlik ve değer uyumu sosyal sorumluluğumuzu somutlaştırırken; sağlamlık, tekrarlanabilirlik ve açıklanabilirlik bizim için çok büyük teknik zorluklar oluşturmaktadır.

Bu rotada kalmak istiyorsak ve YZ yeniliğini ve düzenlemesini şeffaf, kapsayıcı, ilkelere dayalı ve işbirliğine açık bir tavırla benimsersek, YZ teknolojilerinin yaratabileceği değeri beklentilerimizi çok üzerine çıkarabiliriz.

Merve Ayyüce Kızrak isimli yazarın Açıklanabilir, Sorumlu ve Güvenilir Yapay Zekâ başlıklı eseri bu Creative Commons Atıf-AynıLisanslaPaylaş 4.0 Uluslararası Lisansı ile lisanslanmıştır.

Ph.D. Candidate at Yıldız Technical University | AI Researcher at Bahçeşehir University | www.ayyucekizrak.com/

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store