Algoritma? Elitizm!

Yazan: Şaban İbrahim Göksal

Yapay Zeka ve Etik 1
Algoritma? Elitizm!

...bir yazılımın öğretmenin değerlendirmesinin altında hesaplama yaparak bir öğrencinin geleceğiyle oynaması ne kadar doğru?


2020 yılında bütün dünyayı saran pandemi nedeniyle İngiltere’de üniversite yerleştirme sınavları iptal edildi. Hükümet sınavlar yerine yapay zeka tabanlı Ofqual A-Level algoritması kullanarak adil bir şekilde öğrencilerin tercih yapabilecekleri puanların hesaplanacağı sözünü verdi. Gün gelip puanlar açıklandığında öğrencilerin %35’inin yerleştirme puanı öğretmenlerinin değerlendirme notunun bir puan altında gelmişti. Bu öğrencilerin çoğunluğu düşük gelirli mahallelerde veya kırsal kesimlerde yaşıyorlardı. Algoritmanın çalışma mantığı her öğrenci için girilen veriler sonrası hesaplama yapmak fakat bu veriler arasında aynı sınıftaki diğer öğrencilerin başarıları, o öğrencinin ve o okuldaki diğer öğrencilerin önceki yıllardaki sınav puanları, okulun yerleştirme oranlarına kadar birçok veri kümesi var. Sınav sonuçlarını incelediğimizde kolej öğrencilerinde ve yüksek gelirli ailelerin çocuklarının gittiği okullarda bu durum daha az görülmekte. Peki, bir yazılımın öğretmenin değerlendirmesinin altında hesaplama yaparak bir öğrencinin geleceğiyle oynaması ne kadar doğru?


Ofqual yapay zeka tabanlı bir yazılım, geliştiricilerinin ona kazandırdığı derin öğrenme yeteneği sayesinde girilen girdileri işleyerek bir sonuç elde ediyor. Bu girdiler ne kadar fazla ve detaylı olursa algoritmanın başarı oranı daha yüksek oluyor. Öğrencilerin geçmiş yıldaki notları, o okuldaki diğer öğrenci notları, geçmiş yıllarda o okulun sınavdaki başarı oranı gibi bütün bu veriler algoritmanın başarı oranını arttırıyor ama sonuçları adillikten uzaklaştırıyor.


Yapay Zeka ve Etik 2
öğretmenlerimize güvenin, ayrımcılık barındıran verilere değil; bizi algoritma değil, öğretmenlerimiz bilir.

Ofqual Dışında Gerçekleşmiş veya Gerçekleşmesi Olası Vakalar


Öğrenciler eylemlerde “öğretmenlerimize güvenin, ayrımcılık barındıran verilere değil; bizi algoritma değil, öğretmenlerimiz bilir” yazan pankartlar taşıyorlardı. Sorunun asıl kaynağı, bugün en fazla tartışılması gereken konu bu; öğretmenlerin değerlendirmesine rağmen yapay zekaya öğrencilerin notlarını değiştirme yetkisi verilmesi. Aynı konuda bir başka endişe ise iş başvurularının değerlendirilmesinde yapay zekanın kullanılmasında doğdu.


İş verenler yapay zekaya girilen girdiler ışığında en uygun adayların seçilmesini istiyor, peki yapay zeka en uygun adayı nasıl seçecek?


Bu konuda Solon Barocas ve Andrew D. Selbst 2016 yılında California Law Review adlı dergide big datanın etkilerine farklı bir bakış açısıyla baktıkları yazılarında bir simülasyon yaptılar. Yapay zeka girdileri kullanarak hangi çalışanlar ne sıklıkla işe geç kalıyor, bunun etkenleri neler; bunu oranlıyor ve çıkan sonuca göre adayların başvurusunu değerlendiriyor. Şehrin dışında yaşadığı için işe geç kalan çalışanların istatistikleri, aracı olmayıp toplu taşıma nedeniyle işe geç kalan çalışanların istatistikleri, yaşadığı bölgenin şehrin daha alt kesimlerinde olduğu için toplu taşıma sisteminin gelişmemiş olması sebebiyle işe geç kalan çalışanların istatistikleri gibi rakamlar bu oranlamada rol alıyor. Maddi durumu iyi olmayıp şehrin dışında veya alt kesimlerinde yaşayan, maddi durumundan dolayı toplu taşıma kullanan adaylar algoritmanın oranlamasının altında kaldığı için yapay zekanın ayrımcılığına maruz kalıyor ve iş başvuruları reddediliyor.


Barocas ve Selbst yapay zekanın ayrımcılık yapması için iki yol olduğunu belirtiyor. İlki yapay zeka çalışmasını ön yargılı data üzerinde yapması diğeri ise, öğrenmesini önyargılı data üzerinden yapması. 80’li yıllarda İngiltere’de bir olay yaşanıyor, Ofqual A-Level algoritmasında yaşanan durumun aynısı. Tıp fakültesine öğrenci seçmek için bir bilgisayar programı programlanıyor ve bilgisayar programına girilen data seti geçmiş yılların önyargılı, ayrılıkçı şekilde yapılmış öğrenci seçim dataları. Program kadınlara ve göçmenlere karşı ayrımcılık yapıyor.


Ofqual olayı ve 80’lerde yaşanan bu durum yapay zekanın çalıştığı dataların ayrımcılık barındırması yapay zekanın çalışmasında ayrımcılık yapacağını gösteriyor. İş başvuruları açısından algoritmaya girilen veriler arasında kriminal verilerde olacak. Bu verilerde mültecilerin suç oranlarının yüksek olması yapay zekada mültecilerin suç işlemeye yatkınlığı olduğu öğrenmesini doğuracak ve iş başvurusunda bulunan mültecilerin elenmesine neden olacak. Amazon örneğinde de algoritmaya yüklenen data setleri nedeniyle yapay zekada kadın çalışanların başarısız olacağı yönünde bir öğrenme gelişti ve işe başvuran kadın adayların özgeçmişlerinin iyi olmasına rağmen yapay zeka bu adayları cinsiyetlerinden dolayı eledi. Örneklerde de görüldüğü üzere data setlerinin içinde ayrımcılık ve ön yargılar bulunması yapay zekanın öğrenmesinde ve çalışmasında ayrımcılık doğuruyor.



yapay zeka ve etik


Yapay Zekanın Ayrımcılık Yapmaması İçin Önerilen Çözümler


Avrupa Konseyinin anti ayrımcılık biriminin 2018 yılında hazırladığı raporda yapay zeka tarafından yapılacak ayrımcılığa karşı mevcut düzenlemeleri geliştirmeyi ve yapay zeka kullanıcılarına ve geliştiricilerine tavsiyelerde bulunulması gerektiği belirtildi. Yine 2020 yılında CAHAI tarafından hazırlanan yapay zeka regülasyonuna doğru çalışmada ayrımcılıktan korunmak için belirli kırmızı çizgilerin belirlenmesi, mevcut düzenlemelerin geliştirilmesi ve yapay zeka ile ilgili yeni düzenlemelerin yapılması gerektiği belirtildi. Anti ayrımcılık biriminin 2018 yılında hazırlamış olduğu raporda ayrımcılık karşıtı düzenlemeler ve kişisel verilerin korunması hakkındaki düzenlemelerin yapay zekanın yapacağı ayrımcılığa karşı insanları koruyacağı belirtiliyor. Fakat ayrımcılık karşıtı düzenlemelerin şu anki haliyle yetersiz olacağı için güncellemeye ihtiyacı olduğu da eklenmiş. Aynı şekilde CAHAI’nin çalışmasında da insan haklarının koruma sağlayabilmesi için güncellenmesi ve yeni hakların oluşturulması gerektiği belirtilmiştir.


Anti ayrımcılık birimi tavsiyeler başlığı altında raporda yapay zeka kullanıcılarının organize edilmesi ve eşitliğe, insan haklarına karşı bir saldırı olmaması için bu kullanıcıların daima izlenmesi gerektiğini belirtiyorlar. Bu faaliyet gerçekleştirilirken akademi ile otoritelerin beraber çalışması gerektiği de eklenmiş. CAHAI ise hazırladığı raporda yapay zekanın geliştirilmesi ve kullanılması aşamasında kişilerin verilerinin kullanılması, yapay zekanın değerlendirme ve puanlama yapması konusunda direkt kırmızı çizgi çizilmiş. Yine data güvenliği ve gizliliğinin insan hakları olarak düzenlenmesi, yapay zeka çalışmalarının ve çalışma sonuçlarının şeffaflığının bir hakka dönüştürülmesi gerektiği belirtilmiştir. Yapay zekanın nasıl çalıştığına, hangi mantığı izlediğine, kullanımın nasıl etkilediği ve sonuç üzerinde neleri değiştirdiğinin açıklanması gerektiği bu konuda şeffaflığın insan hakkına dönüştürülmesi gerektiği belirtilmiştir.


Sonuç


Alan Turing Christopher’ı geliştirirken veya Joseph Weizenbaum Eliza’yı geliştirirken bu günleri hayal ettiler mi bilmiyorum ama onların o zaman problemlere çözüm olmak için ilk çivilerini çaktıkları bu teknoloji bugün ayrımcılık yapmaya başladı. Yapay zeka geliştiricilerinin ortak hedefi bizi bu gezegen üzerinde en zeki canlılar yapan algılama, öğrenme, düşünme, fikir yürütme, sorun çözme, çıkarımda bulunma gibi yeteneklerimizi makinelere kazandırmak ve bu konuda çok iyi ilerliyorlar ama atlanılan bir şey var, eğer bugün konuşulan bu endişeler için bir çözüm bulunmazsa zamanında Turing’in ilk çivilerini çaktığı bu teknoloji ilerde başımıza büyük sorunlar açacak…


Benzer yazılarımızdan anında haberdar olmak için İkonion Blog'a abone olmayı unutmayın!


Kaynakça:

1. Towards Regulation of AI system, CAHAI; Avrupa Konseyi, 2020 https://www.coe.int/en/web/human-rights-rule-of-law/-/towards-regulation-of-ai-systems-new-cahai-publication

2. Discrimination, Artificial Intelligence and Algorthmic Decision- Making, Avrupa Konseyi, 2018

https://rm.coe.int/discrimination-artificial-intelligence-and-algorithmic-decision-making/1680925d73

3. California Law Review, Big Data’s Disparate Impact; Solon Barocas ve Andrew D. Selbst, 2016

4. https://www.nature.com/articles/d41586-019-00505-2

5. https://www.wired.com/story/an-algorithm-determined-uk-students-grades-chaos-ensued/