Google, Silah ve Gözetim Teknolojilerinde Yapay Zeka Kullanımı Yasağını Kaldırıyor
Alphabet, Google’ın ana şirketi, silah veya gözetim araçları geliştirmek için AI kullanmama sözünü geri almıştır.
Acele mi Ediyorsunuz? İşte Hızlı Bilgiler!
- Google, kazanç raporu hemen öncesinde, AI etik kurallarını güncelledi ve zararla ilgili kısıtlamaları kaldırdı.
- AI başkanı Demis Hassabis, anahtar faktörler olarak ulusal güvenlik ve küresel AI rekabetini vurguladı.
- Uzmanlar, Google’ın güncellenmiş kurallarının daha fazla otonom silah geliştirmeye yol açabileceği konusunda uyarıyor.
Salı günü, beklenenden daha düşük kazançlar bildirmeden hemen önce, şirket AI etik kurallarını güncelledi ve teknolojilerden kaçınma referanslarını kaldırdı, bu durum The Guardian tarafından bildirildi.
Google’ın AI başkanı Demis Hassabis, yönergelerin değişen bir dünyaya uyum sağlamak üzere gözden geçirildiğini, AI’nın artık “ulusal güvenlik” koruması olarak görüldüğünü açıkladı.
Bir blog yazısında, Hassabis ve kıdemli başkan yardımcısı James Manyika, global AI rekabetinin kızıştığı bir ortamda, şirketin “demokrasilerin AI geliştirmede öncülük etmesi” gerektiğine inandığını, bu sürecin “özgürlük, eşitlik ve insan haklarına saygı” prensipleriyle yönlendirilmesi gerektiğini vurguladılar.
WIRED, Google’ın AI ilkelerine yaptığı güncellemeleri, ilkeleri tanıtan 2018 blog gönderisine eklenen bir notla paylaştığını belirtti. Not, “AI ilkelerimizde güncellemeler yaptık. En son bilgiler için AI.Google’ı ziyaret edin.” şeklinde okunuyor.
Aljazeera, Google’ın AI ilkelerini, şirketin ABD Savunma Bakanlığı’nın Project Maven adlı projesine olan katılımı üzerine çalışanların protestoları sonrasında 2018’de ilk kez tanıttığını bildirdi. Bu proje, askeriye için drone saldırılarına hedef belirlemeye yardımcı olmak üzere AI kullanmayı araştırıyordu.
Tepkilere karşı, çalışan istifalarına ve binlerce dilekçeye yol açan bu durum sonucunda Google, Pentagon ile olan sözleşmesini yenilememe kararı aldı. Daha sonra o yıl, Google, projenin AI ilkeleriyle uyumlu olmayabileceği endişelerini dile getirerek, Pentagon ile 10 milyar dolarlık bir bulut bilgisayarlaştırma sözleşmesi için yarışmayı seçmedi, bu durum Aljazeera tarafından belirtildi.
Google’ın etik politikasına yapılan güncelleme, aynı zamanda Alphabet Inc. CEO’su Sundar Pichai’nin, Amazon’un Jeff Bezos ve Meta’nın Mark Zuckerberg gibi teknoloji liderleriyle birlikte, 20 Ocak tarihindeki ABD Başkanı Donald Trump’ın göreve başlama törenine katılmasının ardından geldi.
Ancak, Salı günkü duyuruda, Google AI taahhütlerini güncelledi. Güncellenmiş web sayfası artık AI projeleri için belirli yasaklı kullanımları listelemiyor, bunun yerine şirkete hassas uygulamaları keşfetme konusunda daha fazla esneklik sağlıyor.
Revize edilmiş belge şimdi Google’ın “kullanıcı hedefleri, sosyal sorumluluk ve uluslararası hukuk ve insan hakları konusundaki yaygın olarak kabul gören prensiplerle uyum sağlamak için uygun insan denetimini, gereken dikkati ve geri bildirim mekanizmalarını” sürdüreceğini vurguluyor. Ayrıca, şirket “istemsiz veya zararlı sonuçları hafifletme” niyetini belirtiyor.
Ancak, uzmanlar, AI’nin yakında savaş alanında yaygın olarak kullanılabileceği konusunda uyarıda bulunuyorlar, özellikle otonom silah sistemleri ile ilgili olarak endişeler artıyor.
“Küresel bir sektör liderinin, kendisi için belirlediği kırmızı çizgileri terk etmesi, AI’da sorumlu liderliğe her zamankinden daha çok ihtiyaç duyduğumuz bir dönemde endişe verici bir değişim sinyali veriyor,” dedi Anna Bacciarelli, İnsan Hakları İzleme Örgütü’nde kıdemli AI araştırmacısı, BBC tarafından bildirildiği gibi.
Bacciarelli ayrıca, “tek taraflı” kararın “gönüllü ilkelerin düzenleme ve bağlayıcı hukukun yerini tutamayacağını” neden vurguladığını belirtti.
Yorum bırakın
Vazgeç