İngiltere’deki Sosyal Yardım Dolandırıcılığı Tespitindeki AI Önyargısı, Adalet Konusunda Endişeleri Artırıyor
İngiltere hükümetinin refah hilelerini tespit etmek için kullanılan yapay zeka sisteminin, iç değerlendirmelere göre yaş, engellilik, medeni durum ve milliyet temelli önyargıları olduğu tespit edildi. Bu bilgiyi bugün The Guardian raporladı.
Acele mi ediyorsunuz? İşte Hızlı Bilgiler!
- Birleşik Krallık’ta sosyal yardım dolandırıcılığını tespit eden yapay zeka, engelli kişiler de dahil olmak üzere belirli demografik gruplara karşı önyargılı davranıyor.
- İç analiz, iddiaların dolandırıcılık için nasıl işaretlendiğinde “istatistiksel olarak anlamlı” farklılıklar olduğunu ortaya koydu.
- DWP, yapay zeka aracını kullanmasına rağmen son kararları hala insan vaka çalışanlarının verdiğini iddia ediyor.
The Guardian’a göre, İngiltere genelinde evrensel kredi taleplerini değerlendirmek için kullanılan sistem, belirli grupları orantısız bir şekilde inceleme altına alıyor ve bu durum, sistemsel ayrımcılık endişelerini artırıyor.
“İstatistiksel olarak anlamlı bir sonuç ayrımı” olarak tanımlanan önyargı, Şubat ayında İş ve Emeklilik Bakanlığı (DWP) tarafından yapılan bir adil olma analiziyle ortaya çıktı.
Analiz, makine öğrenme programının, potansiyel dolandırıcılıkta incelenmesi gereken kişileri belirlerken bazı demografik gruplardan insanları diğerlerinden daha sık seçtiğini buldu, The Guardian rapor ediyor.
Bu açıklama, DWP’nin daha önceki iddialarıyla çelişiyor. DWP, AI sisteminin ayrımcılık veya adaletsiz muamele riski taşımadığını iddia etmişti.
Departman, sistemi savundu ve son kararların insan vaka çalışanları tarafından verildiğini ve aracın, yıllık tahmini 8 milyar sterlinlik hile ve hatalar nedeniyle sosyal yardım sisteminde “makul ve orantılı” olduğunu iddia etti. Bu bilgi The Guardian tarafından rapor edildi.
Ancak, analiz, ırk, cinsiyet, din, cinsel yönelim veya hamilelikle ilgili olası önyargıları araştırmadı, bu da sistemin adil olup olmadığını anlamadaki önemli boşlukları bıraktı.
Public Law Project dahil olmak üzere eleştirmenler, hükümeti “önce zarar ver, sonra düzelt” yaklaşımını benimsemekle suçluyor, The Guardian’ın bildirdiği gibi marjinal gruplara yönelik hedeflemeye karşı daha fazla şeffaflık ve güvence talep ediyorlar.
“Çoğu durumda DWP’nin otomatik süreçlerinin marjinal grupları haksız yere hedef alıp almadığını değerlendirmediği açıktır,” dedi Public Law Project’te kıdemli araştırmacı olan Caroline Selman, The Guardian tarafından rapor edildiği gibi.
Bu bulgular, kamu hizmetlerinde AI kullanımının artan incelemesi ortasında gelmektedir. Bağımsız raporlar en az 55 otomatik aracın İngiltere’deki kamu yetkilileri arasında faaliyet gösterdiğini ve milyonlarca insanın kararlarını etkileyebileceğini öne sürüyor, diyor The Guardian.
Ancak, hükümetin resmi AI kayıtları sadece dokuz sistem listeliyor, bu da önemli bir denetim eksikliğini ortaya koyuyor, diyor The Guardian.
Ayrıca, İngiltere hükümeti, zorunlu kayıtta AI kullanımını kaydetmeme eleştirisiyle karşı karşıya kalıyor, AI’nin benimsenmesi arttıkça şeffaflık ve hesap verebilirlik konusunda endişeleri körüklüyor.
DWP, adil olma analizinden kritik detayları, hangi yaş grupları veya milliyetlerin aşırı derecede belirlendiği dahil olmak üzere gizledi. Yetkililer, bu tür spesifik bilgilerin açıklanmasının dolandırıcıların sistemi manipüle etmesine olanak sağlayabileceğini savundu, The Guardian belirtti.
Bir DWP sözcüsü, insan yargısının karar verme sürecinde merkezi bir role sahip olduğunu vurguladı, The Guardian’a göre. Bu açıklamalar, hükümetin AI’yi kullanma konusundaki şeffaflığı hakkındaki genel endişelere ek olarak, eleştirmenlerin yanlış kullanımı önlemek için daha sıkı denetim ve sağlam güvenlik önlemleri talep etmelerine neden oldu.
Yorum bırakın
Vazgeç