Avukatları Hukuksal Sorunlara Sürükleyen Mahkeme Belgelerindeki Yapay Zeka Kaynaklı Hatalar

Photo by Saúl Bucio on Unsplash

Avukatları Hukuksal Sorunlara Sürükleyen Mahkeme Belgelerindeki Yapay Zeka Kaynaklı Hatalar

Okuma süresi: 2 dk.

Dün Reuters tarafından paylaşılan bir rapor, yapay zekanın halüsinasyonları – üretken yapay zeka modelleri tarafından oluşturulan hatalar ve uydurma bilgiler – Amerika Birleşik Devletleri’ndeki mahkemelerde hukuki sorunlara yol açtığını ortaya koyuyor.

Acele mi Ediyorsunuz? İşte Kısa Bilgiler!

  • Morgan & Morgan, 1.000 avukata yapay zeka riskleri hakkında uyarıda bulunan bir e-posta gönderdi.
  • Walmart avukatlarının davaları için yapay zeka kullanmayı kabul ettiği son vakalar, hukuk camiasında alarmları çaldı.
  • Chatbot halüsinasyonlarının mahkeme ifadelerinde kullanılması, son yıllarda tekrar eden bir sorun haline geldi.

Bu ay, Morgan & Morgan hukuk firması, yapay zeka tarafından oluşturulan sahte davalara ve chatbotların kullanımının risklerine dair 1000’den fazla avukata bir e-posta uyarısı gönderdi.

Birkaç gün önce, Wyoming’deki iki avukat, Walmart’a karşı açılan bir dava için mahkeme dosyasına AI tarafından oluşturulan sahte davaları dahil ettiklerini kabul ettiler ve bir federal hakim onları yaptırımla tehdit etti.

Aralık ayında, Stanford profesörü ve yanıltıcı bilgi uzmanı Jeff Hancock, AI’yi kullanarak mahkeme beyanı atıflarını uydurmakla suçlandı. Bu, savunma ifadesinin bir parçası olarak, derin sahte bilgilerin seçimleri etkilemek için kullanılmasını suçlu kılan 2023 yılına ait eyalet yasasını savunurken gerçekleşti.

Son birkaç yıldır, bu türden birçok durum, hukuki sürtüşmelere sebep olmuş ve hakimler ile davacılara zorluklar eklemiştir. Morgan & Morgan ve Walmart, bu konu hakkında yorum yapmayı reddetti.

Yaratıcı AI, avukatların araştırma süresini azaltmaya yardımcı olmuştur ancak onun hataları önemli maliyetlere yol açabilir. Geçen yıl, Thomson Reuters’in anketi, avukatların %63’ünün işleri için AI kullandığını ve %12’sinin düzenli olarak bu teknolojiyi kullandığını ortaya koydu.

Geçen yıl, Amerikan Barosu, 400.000 üyesine avukatlık etik kurallarını hatırlattı. Bunlar, avukatların mahkeme dosyalarındaki tüm bilgileri doğrulamalarını ve bu bilgilerin AI tarafından oluşturulan bilgileri de kapsadığını belirtti, bu bilgilerin kazara oluşturulmuş olmasının bir önemi yoktu—örneğin Hancock’un durumu gibi.

“Avukatların, alıntıları kontrol etmeden oluşturmak için ChatGPT veya herhangi bir üretken AI aracını kullandıkları yakalandığında, bu tamamen ve basitçe yeteneksizliktir,” dedi Suffolk Üniversitesi Hukuk Fakültesi Dekanı Andrew Perlman, Reuters’a.

Birkaç gün önce, BBC de AI tarafından üretilen sahte alıntılar hakkında uyarıda bulunan bir rapor paylaştı ve gazetecilikteki AI araçları ile ilgili sorunları gündeme getirdi.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Loader
Loader Devamını oku...