
Photo by Saúl Bucio on Unsplash
Avukatları Hukuksal Sorunlara Sürükleyen Mahkeme Belgelerindeki Yapay Zeka Kaynaklı Hatalar
Dün Reuters tarafından paylaşılan bir rapor, yapay zekanın halüsinasyonları – üretken yapay zeka modelleri tarafından oluşturulan hatalar ve uydurma bilgiler – Amerika Birleşik Devletleri’ndeki mahkemelerde hukuki sorunlara yol açtığını ortaya koyuyor.
Acele mi Ediyorsunuz? İşte Kısa Bilgiler!
- Morgan & Morgan, 1.000 avukata yapay zeka riskleri hakkında uyarıda bulunan bir e-posta gönderdi.
- Walmart avukatlarının davaları için yapay zeka kullanmayı kabul ettiği son vakalar, hukuk camiasında alarmları çaldı.
- Chatbot halüsinasyonlarının mahkeme ifadelerinde kullanılması, son yıllarda tekrar eden bir sorun haline geldi.
Bu ay, Morgan & Morgan hukuk firması, yapay zeka tarafından oluşturulan sahte davalara ve chatbotların kullanımının risklerine dair 1000’den fazla avukata bir e-posta uyarısı gönderdi.
Birkaç gün önce, Wyoming’deki iki avukat, Walmart’a karşı açılan bir dava için mahkeme dosyasına AI tarafından oluşturulan sahte davaları dahil ettiklerini kabul ettiler ve bir federal hakim onları yaptırımla tehdit etti.
Aralık ayında, Stanford profesörü ve yanıltıcı bilgi uzmanı Jeff Hancock, AI’yi kullanarak mahkeme beyanı atıflarını uydurmakla suçlandı. Bu, savunma ifadesinin bir parçası olarak, derin sahte bilgilerin seçimleri etkilemek için kullanılmasını suçlu kılan 2023 yılına ait eyalet yasasını savunurken gerçekleşti.
Son birkaç yıldır, bu türden birçok durum, hukuki sürtüşmelere sebep olmuş ve hakimler ile davacılara zorluklar eklemiştir. Morgan & Morgan ve Walmart, bu konu hakkında yorum yapmayı reddetti.
Yaratıcı AI, avukatların araştırma süresini azaltmaya yardımcı olmuştur ancak onun hataları önemli maliyetlere yol açabilir. Geçen yıl, Thomson Reuters’in anketi, avukatların %63’ünün işleri için AI kullandığını ve %12’sinin düzenli olarak bu teknolojiyi kullandığını ortaya koydu.
Geçen yıl, Amerikan Barosu, 400.000 üyesine avukatlık etik kurallarını hatırlattı. Bunlar, avukatların mahkeme dosyalarındaki tüm bilgileri doğrulamalarını ve bu bilgilerin AI tarafından oluşturulan bilgileri de kapsadığını belirtti, bu bilgilerin kazara oluşturulmuş olmasının bir önemi yoktu—örneğin Hancock’un durumu gibi.
“Avukatların, alıntıları kontrol etmeden oluşturmak için ChatGPT veya herhangi bir üretken AI aracını kullandıkları yakalandığında, bu tamamen ve basitçe yeteneksizliktir,” dedi Suffolk Üniversitesi Hukuk Fakültesi Dekanı Andrew Perlman, Reuters’a.
Birkaç gün önce, BBC de AI tarafından üretilen sahte alıntılar hakkında uyarıda bulunan bir rapor paylaştı ve gazetecilikteki AI araçları ile ilgili sorunları gündeme getirdi.
Yorum bırakın
Vazgeç