Singapur’da yapılan araştırma, bazı yapay zeka sohbet robotlarının kültür, cinsiyet ve ırkla ilgili sorulara ön yargılı yanıtlar verdiğini ortaya koydu.
The Straits Times’a göre, Singapur Bilgi İletişim Medya Geliştirme İdaresi (IMDA) ve Humane Intelligence, Büyük Dil Modellerinin (LLM) önyargılarını test etti. Çalışmada, yapay zekaya kültür, dil, sosyo-ekonomik durum, cinsiyet, yaş ve ırkla ilgili sorular yöneltilerek yanıtlarının tarafsızlığı incelendi.
Çalışmaya, 54 bilgisayar ve beşeri bilimler uzmanı ile 300 çevrim içi katılımcı katıldı. İncelemeye Meta’nın Llama 3.1, Amazon destekli Claude-3.5, Cohere for AI’ın Aya modeli ve AI Singapore’un Sea Lion modeli alındı.
Araştırmada, bu modellerin İngilizce dışında 8 Asya dilinde sorgulandığında ırksal ve kültürel açıdan “saldırgan” yanıtlar verdiği belirlendi.
İncelenen 4 yapay zeka modelinin ürettiği 5 bin 313 yanıtın yarısından fazlasının “taraflı” olduğu tespit edildi.
Araştırma, bölgesel dillerde üretilen her üç yanıttan ikisinin, İngilizce yanıtların ise yaklaşık yarısının “ön yargılı” olduğunu ortaya koydu.
Araştırmada, yapay zeka modellerinin en çok cinsiyet kalıplarında ön yargılı olduğu belirlendi. Kadınları “bakıcılık” ve “ev işleri” ile ilişkilendirirken, erkekleri “iş hayatında” tasvir ettikleri kaydedildi.