Newyork’ta İstihdam Algoritmaları İçin Önyargı Yasası Yürürlüğe Girdi.
Uzun aylar süren gecikmelerin ardından, New York’da geçen hafta algoritmaları kullanarak personel işe alan, işe yerleştiren veya terfi ettiren işverenlerin bu algoritmaları bağımsız bir denetim için sunmalarını ve sonuçları kamuoyuna açıklamalarını gerektiren bir yasayı uygulamaya başladı. ABD’de bir ilk olan bu yasa (New York City Yerel Yasası 144) aynı zamanda bu tür algoritmaları kullanan şirketlerin çalışanlara veya iş adaylarına ifşa etmelerini de zorunlu kılıyor.
Şirketlerin kamuoyuna kullanılan algoritmaların bir listesi ve farklı ırklardan, etnik kökenlerden ve cinsiyetlerden adayların söz konusu algoritmalardan muhtemelen alacakları “ortalama puanı” açıklamaları gerekiyor. Bu, bir puan, sınıflandırma veya öneri şeklinde olabilir. Ayrıca, algoritmaların “etki oranlarını” da listelemelidir; yasa, bu terimi belirli bir kategorideki tüm insanların (örneğin, Siyahi erkek adaylar) ortalama algoritma verilen puanının en yüksek puan alan kategoriye göre kişilerin ortalama puanına bölünmesi olarak tanımlıyor.
ABD’deki uzmanlar yapay zekanın mevcut önyargıları artırma potansiyeline sahip olduğunu ve hem istihdam hem de ücret açıklarını daha da kötüleştireceğini düşünüyorlar.
Yakın zamanda Amazon, kadın adaylara karşı ayrımcılık yaptığı anlaşılan bir işe alım yazılımını kullanmayı bırakmıştı. Ve 2019’da yapılan bir akademik çalışma, işe alımda AI destekli anti-Siyahi önyargıyı göstermişti.
Etik Kurallar ve Şeffaflık
Doğrusu mevcutta kullanılan bütün insan kaynakları karar verme yazılımları bu alt yapı ile geliyor. Ve geliştirilmeye de devam ediyor. Bu yazılımların müşterileri büyük şirketler ve tercihleri bu tür yapay zeka yazılımları olduğu için yazılım sektörü bu talebe cevap vermeye çalışıyor.
İşe alım sürecinde yapay zekanın kullanılması engellenemeyecektir. Nitekim temel tartışma konusu önyargının ortadan kaldırılmasıdır. Bu konu da yapay zeka yazılımların icadından önce de vardır ve hiç bitmeyecektir. Hatta etik kurallara ugyun kurgulanmış bir sistem insanların işe alım da yaptığı ayrımcılığı ortadan kaldırabilir. Teknolojinin hızla geliştiği bir dönemde, işe alım süreçlerinin adil ve eşit olmasını sağlamak için algoritmaların kullanımı hakkında düşünmek ve bu konuda eyleme geçmek her zamankinden daha önemli hale gelmiş durumadır. Bu, sadece teknoloji ve iş dünyasının sorunu değil, aynı zamanda toplumun genelinde adalet ve eşitlik sorunudur. Bu yüzden, bu konuda yapılacak düzenlemelerin, farklı kesimlerden insanları koruyacak şekilde geniş kapsamlı ve kapsayıcı olması gerekiyor.
Ülkemizde Yapay Zeka Kullamında Durum
6701 sayılı Türkiye İnsan Hakları ve Eşitlik Kurumu Kanunu (TİHEK) ile ayrımcılık yasağına dair ulusal mevzuatımızdaki geniş düzenlemeler yapılmıştır. TİHEK; insan haklarının korunması ve geliştirilmesi, kişilerin eşit muamele görme hakkının güvence altına alınması ve ayrımcılığın önlenmesi çerçevesinde faaliyet göstermektedir. Yapay zeka (YZ) teknolojilerinin artan kullanımıyla birlikte, bu teknolojilerin ayrımcı nitelikte kararlar üretmesi ve bu nedenle bazı kişilerin iş veya hizmet imkanlarından mahrum kalması gibi durumların yaşanma ihtimali de yükselmiştir. YZ destekli karar alma mekanizmalarının ayrımcılığa yol açma potansiyeli bulunmaktadır.
YZ teknolojilerinin kullanımının ayrımcılığı önlemek konusu, uluslararası alanda önemli bir gündem maddesidir. İnsan Hakları Eylem Planı 2021-2023 ve Ulusal Yapay Zeka Stratejisi 2021-2025, YZ kullanımından kaynaklı ayrımcılığın önlenmesine ilişkin ulusal düzeyde yapılan önemli çalışmalardır. Ayrıca, Kişisel Verileri Koruma Kurumu tarafından yayımlanan Yapay Zeka Alanında Kişisel Verilerin Korunmasına Dair Tavsiyeler, kişisel veri koruma düzenlemelerine uygun YZ çalışmalarının önemini vurgulamaktadır.
Ülkemizde tüm işe alım süreçlerinde adayların cinsiyet, ırk, yaş, din, engellilik durumu veya benzeri sebeplerle ayrımcılığa uğramamasını gerektirir. İşverenler işe alım sürecinde eşitlik ilkesine uymalı ve adayları işle ilgili niteliklere göre değerlendirmelidir. Yapay zekanın işe alımlarda kullanılması da bu çerçevede değerlendirilmeli ve işe alım sürecinde ayrımcılığa yol açmamalıdır.
Riskler ve Çözüm
Yapay zeka teknolojileri tarafsız ve objektif olabileceği düşünülse de, bu sistemlerin algoritmaları geliştiren mühendislerin bilinçli veya bilinçsiz önyargılarına yansıyabilir. Örneğin, bir algoritmanın belirli bir cinsiyet, ırk veya yaş grubuna karşı önyargılı olmasına sebep olabilir. Bunların önüne geçmek için yazılım geliştirme süreçlerinde veri koruma ve iş hukuku alanında uzman olan hukukçuların desteği ile daha başlaçtan kriterlere uygun algoritma hazırlanması gerkelidir. Mevcut yazılımların ise analiz çalışmasından geçerilmesi yerinde olacaktır. Çünkü bir işçinin şikayeti ile ortaya çıkacak bir yazılımdaki eksiklik, bunu kullanan bütün şirketleri etkileyecektir.