AB’nin Yapay Zeka Yasaklarındaki Boşluklar, Polisin Tartışmalı Teknolojiyi Kullanmasına İzin Verebilir
AB’nin yeni AI Yasası, AI’yi düzenlemeyi amaçlıyor ancak maddeler arası boşluklar, muafiyetler ve şirketlerin etkisi nedeniyle eleştiri alıyor.
Acele Mi Ediyorsunuz? İşte Kısa Bilgiler!
- Eleştirmenler, yasanın özellikle yasalara uyan kişiler ve göç yetkilileri için boşlukları olduğunu savunuyor.
- Muafiyetler, bazı durumlarda gerçek zamanlı yüz tanıma ve duygu tespiti gibi AI uygulamalarına izin veriyor.
- Dijital haklar grupları, yasanın istismara karşı korumaları zayıflatan istisnalar konusunda uyarıda bulunuyor.
Avrupa Birliği’nin yeni AI Act, yapay zekanın düzenlenmesinde önemli bir adımı işaret ediyor. Dünyada ilk olan bu yasalar, AI teknolojisinin belirli “kabul edilemez” kullanımlarını yasaklar ve vatandaşları korumayı ve demokratik değerleri korumayı hedefler.
Yasaklar arasında, tahmini polislik, internetten yüz görüntülerini tanıma için çizme ve biyometrik verilerden duyguları tespit etmek için AI kullanma bulunmaktadır. Ancak eleştirmenler, yasanın özellikle polislik ve göç otoriteleri söz konusu olduğunda önemli boşluklar içerdiğini savunuyorlar.
AI Yasası, prensipte belirli AI kullanımlarını yasaklasa da, Avrupa polisi ve göç otoritelerinin tartışmalı AI uygulamalarını kullanmaya devam etmelerine olanak sağlayabilecek muafiyetler içeriyor, ilk olarak Politico tarafından bildirildiği üzere.
Örneğin, kamusal alanlarda gerçek zamanlı yüz tanıma, büyük oranda yasak olmasına rağmen, ciddi suç soruşturmaları gibi istisnai durumlarda hala izin verilebilir.
Benzer şekilde, kamusal alanlardaki duyguların tespiti yasaktır, ancak yasa uygulama ve göç amaçları için istisnalar yapılabilir, bu da AI’nın sınırlarda aldatmayı belirlemek için potansiyel kullanımı hakkında endişeleri artırır.
Yasanın geniş muafiyetleri, dijital haklar grupları arasında alarm oluşturdu. 22 organizasyonun oluşturduğu bir koalisyon, AI Yasası’nın, teknolojinin yasaları uygulama konusunda kullanımıyla ilgili endişeleri yeterince ele almadığı konusunda uyardı.
“En belirgin açık, yasakların yasaları uygulama ve göç yetkililerine uygulanmamasıdır,” dedi Access Now’da AB politika analisti olan Caterina Rodelli, Politico tarafından bildirildiği gibi.
AB’nin Yapay Zeka Yasası, toplumun kontrolü için YZ’nin kullanımını da yasaklar, bu önlem bireysel özgürlükleri veya demokrasiyi zayıflatmak için YZ’nin kullanılmasını önlemek amacıyla getirilmiştir.
Yasayı taslak haline getirme sürecinde yer alan İtalyan milletvekili Brando Benifei, hedefin YZ teknolojilerinin “toplumsal kontrol” veya “özgürlüklerimizin sınırlanması” için istismar edilmesini önlemek olduğunu, Politico tarafından bildirildiği gibi açıkladı.
Politico’ya göre, bu duruş, Hollanda vergi otoritelerinin 2019’da dolandırıcılığı tespit etmek için AI’ın tartışmalı kullanımı gibi yüksek profilli olaylardan etkilendi. Bu durum, haksız yere yaklaşık 26.000 kişiyi dolandırıcılıkla suçladı.
Bu durumda, yetkililer, potansiyel çocuk bakımı yardımı dolandırıcılığını belirlemek için bir algoritma kullandılar, ancak hatalı algoritma, yaygın yanlış tanımlamalara ve masum vatandaşların hayatlarına zarar vermeye yol açtı.
Bu olayın etrafındaki tartışmalar, öngörücü polislik ve AI’nin diğer kötüye kullanım şekilleri üzerindeki yasanın kısıtlamalarını şekillendirmede önemli bir rol oynadı.
Bu arada, Corporate Europe Observatory (CEO) tarafından yapılan bir rapor, Büyük Teknoloji şirketlerinin AB AI standartlarının geliştirilmesi üzerindeki etkisi konusunda endişeler dile getiriyor. Rapor, AI standartlarını belirleyen Ortak Teknik Komite (JTC21) üyelerinin yarısından fazlasının kurumsal veya danışmanlık çıkarlarını temsil ettiğini ortaya koyuyor.
Oracle, Microsoft, Amazon ve Google gibi büyük şirketler, temel hakları veya toplum refahını korumaktan ziyade, kendi ticari çıkarlarını önceliklendiren daha hafif düzenlemeleri savunuyorlar.
Bu kurumsal etki, AB’nin AI Act’ının, etik düşüncelerden çok karlılığı hedefleyen endüstri çıkarları tarafından zayıflatılabileceği konusunda endişeler uyandırdı. Ayrıca, sivil toplum ve akademik temsilciler, standart belirleme sürecine katılım konusunda mali ve lojistik zorluklarla karşı karşıya.
Rapor, CEN ve CENELEC gibi standart belirleme organizasyonlarındaki şeffaflık ve demokratik hesap verebilirlik eksikliğini vurgular, standart geliştirme sürecinin adil ve kapsayıcı olup olmadığı konusunda endişeleri tetikler.
AI Yasası, AB’yi küresel AI düzenlemelerinin ön saflarına yerleştirirken, süregelen tartışmalar, inovasyonla insan haklarını koruma arasında hassas bir denge kurmanın ilerleyen süreçte zorlu bir görev olacağını gösteriyor.
Yorum bırakın
Vazgeç