Robotlar ırkçı ve cinsiyetçi olmayı öğreniyor: Araştırmacılar Yapay Zeka programlarının nasıl insanlar gibi önyargılar gösterdiğini ortaya çıkardı.
Araştırmacılar yapay zekalara hoş ve nahoş kelimeleri, belli kelimelerle eşleştirmeleri için online metin görevleri veriyorlar. Sonra aynı görev için beyaz ve siyah göstergeli isimlerin bulunduğu bir liste veriyorlar. Bu listede siyah göstergeli isimler, ebony -siyahi kadın- ve Jamal -Arapça bir isim- gibi, nahoş kelimelerle eşleştirilmişken beyaz göstergeli isimler -Emily ve Matt gibi- hoş kelimelerle eşleştirilmiş. Yapay zekalar isimleri insanların yüzleriyle eşleştirebilmek için önyargıları öğreniyorlar.
İnsanlar daha iyi ve önyargıdan uzak kararlar almak için yapay zekanın gücüne güveniyorlar. Bununla beraber, yeni bir araştırma yapay zekanın dengeli çözümler bulabilme yeteneğini engelleyerek bu teknolojinin de geliştikçe ırkçı ve cinsiyetçi olduğunu ortaya çıkardı. Araştırmacılar yapay zekanın insan dilini anlamlandırdıkça içerisinde barındırdığı ırk ve cinsiyet temelli önyargıları edinebilme olasılığının arttığını keşfetti.
Bath Üniversitesi’nde bilgisayar uzmanı olan Joanna Bryson, The Guardian‘a: “Birçok insan bunun yapay zekanın önyargılı olduğunu gösterdiğini söylüyor. Hayır. Bu bizim önyargılı olduğumuzu gösteriyor ve yapay zeka da bizden öğreniyor.” dedi.
Bulgular, araştırmacıların yapay zeka tarafından analiz edilen metinlerin pozitif ve negatif çağrışımlarını değerlendirmek için bir istatiksel sistem oluşturmalarından hemen sonra açığa çıktı.
Science dergisinde yayımlanan bir çalışma “Örtülü Çağrışım Testi (Implicit Association Test) ile bilinen önyargıların görünümlerini çokça kullanılan saf yapay zeka ile öğrenme modelini internet ağı üzerinden aldığımız metinlerle deneyerek ölçüp kopyaladık.” şeklinde kaydediyor.
Sonuçlar, denemelerimizde böceklere ve çiçeklere karşı “ahlaki olarak normal”, ırk ve cinsiyete karşı sorunlu veya en basitinden mesleklere ya da isimlere göre cinsiyet temelli dağılımların mevcut durumlarını yansıtan tarihimizin “düzeltilebilir” ve “kesin” önyargılarının izlerini taşıdığını gösteriyor.
Bu çalışma Ağustos ayında Princeton Üniversitesi tarafından yapıldı. Yapılan araştırmada yapay zekalara popüler popüler GloVe algoritması ile kelime eşleştirme görevi verildi. Kendi başlarına bırakılan yapay zekalar insan dilini anlayabilmek için online metinler kullandı.
Grup, yapay zekaya “hoş olan” ve “hoş olmayan” şeklinde tanımlanan “aile” ya da “kaza” gibi diğer kelimelerle eşleştirmesi için “çiçekler” ve “böcekler” gibi kelimeler verdiler. Yapay zeka bu eşleştirmeleri başarıyla tamamladı.
GloVe, Common Crawl olarak bilinen ve farklı sitelerden alınan 840 milyar kelimenin karışık listesi bulunan veri tabanını kullanarak düzenlendi.
Son makalede, grup önyargıların insan dili ile desteklenen algoritmalar tarafından elde edildiğini tartıştı. ‘Dişi’ ve ‘kadın’ kelimelerinin ev işleri ile alakalı kelimelerle kümelendirilirken ‘erkek’ ve ‘adam’ gibi kelimelerin matematiksel zeka ve mühendislik ile alakalı kelimelerle kümelendirildiği görüldü. Dahası isimlere gelince durum içinden çıkılmaz bir hal alıyor.
Emily ve Matthew gibi beyaz göstergeli isimler verildiğinde yapay zeka bu isimleri ‘kahkaha’ veya ‘mutlu! gibi kelimelerle eşleştiriyor. Bununla beraber Aisha ve Darnell gibi Afrikan Amerikan göstergeli isimler verildiğinde, teknoloji ızdırap, edepsiz, kötü gibi nahoş kelimeler seçiyor.
Sonuçlar bu algoritmaların yüzleri kelimelerle eşleştirirken insanlarla aynı ten rengi veya cinsiyet temelli önyargıları kabullendiğini gösteriyor.
Ve uzmanlar eğer yapay zekaların düşünme şekilleri değiştirilmezse, insan ırkı ile aynı toplumsal önyargıların baş göstereceği konusunda uyarıyor.
Araştırmacılar, Ağustos notlarında “Biz önyargının kötü olduğunu, kadınların evlere tıkıldığını ve erkeklerin kariyerleri ile meşgul olduğunu ama şimdilerde cinsiyetin aile içindeki ve toplumdaki rolleri çok da belirlemediğini ve dahasını öğrenebiliriz, ama eğer yapay zeka aynı şekilde geliştirilmezse, sonrasında yapay zekanın önyargıları benimsemesi çocukların önyargıları benimsemesinden çok daha negatif etki yaratabilir.” dedi.
Kaynak: Dailymail UK / Yazar: Nazlınur Karaağaçlı
Hiç yorum yok:
Yorum Gönder