Yapay Zeka Hata Yaparsa

Yazar: - Kategori:
Yayın Tarihi: - 14:17

Amazon’a iş için başvuran kadınlar oldukça zor anlar yaşadı. İşe alma prosedürleri teorik olarak nötr ve herhangi birine öncelik tanımayacak şekilde tasarlanmıştı. Bu hedefe ulaşmak için Amazon 2014’ten beri uygulamaya konan bir algoritmayı kullanıyor. Algoritma 10 yıl boyunca işe alınmış kişilerin kayıtlarını yorumlayarak yeni tercihleri belirliyor. Bu bilgileri kullanan yapay zekâ teorik olarak yeni iş başvurusu sahiplerine formlarındaki bilgilerle avantaj veya dezavantaj sağlama imkanını ortadan kaldırıyordu. Algoritma başvuran adayları birden beşe kadar bir yıldız sistemi ile sıralıyordu. Bu yıldız sistemi Amazon müşterilerinin alışverişlerini değerlendirirken kullandığı puanlama sistemine çok benziyor. Bir süre sonra algoritmanın kadın başvuranlara karşı ayrımcılık yaptığı ortaya çıktı. Nedense, iki aday karşı karşıya kaldığında algoritma her zaman erkek adaydan yana oy kullanıyordu. Programcıların atladığı çok önemli bir nokta vardı. Teknoloji sektörünün her alanında iş başvurularının büyük bir kısmı erkeklerden geliyor, bu yüzden de Amazon’un oluşturduğu “işe alınmaya uygun” dijital modeller de erkek egemenliği kendini gösteriyordu. Elindeki örneklemeden yola çıkan, geçmiş verileri değerlendiren Amazon algoritması doğal olarak erkeklerin işe alınmaya daha uygun olduğuna karar vermişti.

Bir kere erkek ise, her zaman erkek olmalı

Programcılar bu hayatı nötralize etmeye çalıştılar, ancak yine günün sonunda insanın içini rahat ettirmeyen sonuçlara ulaşıldı. Eğer söz konusu yapay zekâ cinsiyet konusunda böyle bir karara varmışsa, belki diğer kategorilerde de benzer ön kabullerle hesaplamalar yapıyor olabilir miydi? Bu sorun ortaya çıkınca, işe alma işleminin tamamen bilgisayarlara bırakıldığı bu sistem terk edilmek zorunda kalındı. Bunun yerine, söz konusu algoritma yine kullanıldı, fakat sadece “danışman” olarak yetkilendirildi. Sonunda 2017’de bu projeden tamamen vazgeçildi. Her derde deva olarak görülen yapay zekâ yaratıcılarına yarardan fazla zarar getirmişti.

İnsanlar hayvanlarla karıştırılınca

İlk başlarda “devrim” gibi değerlendirilen ve “tarafsız” olacağına yüzde yüz gözü ile bakılan algoritmaların çalışmaya başladığında aslında hiç de objektif sonuçlara varmadığı görüldü. Hatta verdikleri kararlarda zaman zaman o kadar “ırkçı” davrandılar ki, programcılarını bile hayrete düşürdüler. Örneğin, Google’ın 2015 Mayıs ayında yayımladığı fotoğraf uygulaması içinde fotoğrafları otomatik olarak etiketleyecek bir algoritma bulunuyordu. Ancak algoritma yine çok büyük bir hata yaparak koyu derili insanları insan olarak görmemeye başladı. Zencileri “goril” olarak etiketleyerek büyük bir skandala imza attı. Eşi ile bu etiketlemenin kurbanı olan bir afro-amerikalı, Jack Alciné Twitter’da çok önemli bir soru sordu: Bu algoritmaya ne tür örnek veriler giriliyordu ki böyle rezil bir sonuç çıkıyordu?

Fotoğraf portalı Flickr da benzer sorunlardan nasibini aldı. 2015 Mayıs ayında onların da sisteme eklediği fotoğraf tanıma özelliği devreye girer girmez felaket sonuçlar verdi. Program koyu derili insanları direkt olarak “maymun” veya “hayvan” kategorisine sokmaya başladı. Dachau toplama kampının kapısının fotoğrafı “spor”, “kafes”, “hayvanat bahçesi” gibi kelimelerle etiketlendi. Bu hatalar turizm sektöründe önceden hesaplanmamış bir sürü probleme neden oldu. Örneğin, Yeni Zelanda’da kullanılan bir biyometrik yüz tanıma sistemi Asya kökenli insanlara hizmet vermeyi reddetti. Geri çevirme nedeni olarak da “gözleri kapalı” hatası verdi.

Risk değerlendirmesi ve tekrar suç işleme ihtimalinin hesaplanması için geliştirilen bir program, çok daha ciddi problemlere sebep oldu. ABD’de mahkemeler şartlı tahliye isteklerini değerlendirirken bilgisayar verilerine gün geçtikçe daha çok güveniyor. Bu programların bazıları mahkumlara sadece derilerinin renginden dolayı daha iyi veya daha kötü şartlar sağlamış olabilir. Kadınlar ve koyu derili erkekler daha fazla reddediliyor, deri rengi daha açık olan erkekler daha çabuk şartlı tahliye ediliyor olabilir. Florida’da 2013 – 2014 arası tutuklanmış 7,000 insanın değerlendirmesinde programın “tekrar suç işleyebilir” diye yaptığı değerlendirmeler güvenilmez çıktı. Tekrar suç işleme ihtimali olduğu belirtilen mahkumlardan sadece yüzde 20’si bir kez daha suç işlemişti.

Açık ve gizli ırkçılık

Bir çalışanın iş değişikliğine hazır olup olmadığını ölçümleyen yapay zekâ uygulaması sürekli olarak işyerine yakın noktalarda yaşayan başvurulara öncelik veriyordu. Tüfekçi, bunun bir tür ırkçılık olduğunu iddia ediyor. Zira bu durumda siyah derili adayların pek şansı olmuyor, zira onlar çoğunlukla şehir dışında, banliyöde yaşıyorlar. Uygulama, derisinin renginin ne olduğunu bilmese bile, zencileri otomatik olarak elemiş oluyor.

Algoritmalar dev boyuttaki veri yığınları arasında ilişkiler kurabiliyor, bağlantılar yapabiliyor. İnsan gücü bu tür derin analizleri yapabilmek ve bağlantıları fark edebilmek için yetersiz. Analiz işlemleri, özellikle kendi kendine öğrenen algoritmalar da söz konusu olunca insanlar için bir kara kutu aslında. Zeynep Tüfekçi “artık algoritmalar o kadar karmaşıklaştı ki onların nasıl çalıştığını ve kategorizasyonu neye göre yaptığını tam olarak anlayamıyoruz. Binlerce, hatta milyonlarca satır ve sütundan oluşan matematiksel veriyi işliyorlar. Bütün veri gözlerinin önünde olmasına rağmen bir programcı veya bir veri analiz uzmanı bile ne olup bittiğini tam olarak anlayamıyor.” Facebook, Google gibi dev boyutta veriye sahip olan şirketler algoritmalarını devlet sırrı gibi saklıyorlar, bu da şeffaflaşmanın önünde en büyük engel olarak duruyor.

En karmaşık algoritmalar bile özel durumlarda yüzde yüz doğru sonuç veremiyor. Ev ile işyeri arasındaki uzaklığın işe uygun olmak konusundaki etkisi, sadece bir tane faktör. Günün birinde bu başvuran kişinin evini değiştirmeyeceğinin garantisi yok. Dahası, acaba bu tür otomatik seçimlerde ırkçılık sorunu var mı, yok mu, bilemiyoruz. Her ne kadar işe yakın noktalarda oturan insanların işe daha rahat gelip gidebileceği dünyaca kabul görmüş bir pozitif etken olsa da, banliyöde oturmakla deri rengi arasındaki bağlantı hesaba katılmadığı için sonuçlar hep beyazlar için avantajlı olarak çıkıyor. Burada, söz konusu algoritma masum görünüyor, çünkü insanları derilerinin rengine göre değil işe olan uzaklığına göre kategorize ediyor. Aynı şey, okulda aldığı notlara göre kategorizasyon yapan bir algoritma için de geçerli. Etnik köken ile derslerde alınan notların arasında sadece ABD’de değil, dünyanın her yerinde bir korelasyon olduğu açık. Algoritmalar bu tür şeyleri hesaba katmadan çok katı kurallar çerçevesinde işliyor, ama gerçek hayat böyle değil.

Obektif sonuçlara ulaşmak için veriyi mümkün olduğu kadar nötr bir şekilde kullanmak, ancak bu sonuçların ayrımcılık içermemesini sağlamak şimdilik ütopya gibi görünüyor. Hayatın kendisi nötr değil ve aslında veriler detaylı analiz edildiğinde, sorular sorulmaya başladığında algoritmaların da ne kadar çok hata yapabileceği ortaya çıkıyor. Bu yüzden, nihai kararı bilgisayara bırakmak olacak iş değil…

Bilgisayarcılardan bilge bir slogan: Çöp verirsen, çöp alırsın

Algoritmaların gerçekten anlamlı sonuçlar verip vermediğini değerlendirirken bilgisayar ve programcılık dünyasının bu en eski sloganını hep akılda tutmak gerekli. Şurası bir gerçek ki, bozuk, hatalı verilerle işe başlayan bir bilgisayar eninde sonunda hatalı sonuçlara varacaktır. Bilgisayarlarda verinin hatalı mı, düzgün mü olduğunu kendi başlarına anlayamazlar. Onlar için veri, veridir ve her veri diğeri kadar değerli ve önemlidir.

Google otomatik resim tanıma algoritmasını halen düzeltebilmiş değil. 2018 Kasım ayında ABD’nin ünlü “Wired” dergisi Google’ın goriller ile koyu tenli insanlar arasındaki farkı hala tam olarak anlayamamış olduğunu ortaya koydu. Bu yüzden şu anda iki kategori de kapalı durumda.

Etiketler:, ,

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir