A.I. Sanrıları Artıyor: Araçlar Daha Karmaşık Hale Geldikçe

Image by Kelly Sikkema, from Unsplash

A.I. Sanrıları Artıyor: Araçlar Daha Karmaşık Hale Geldikçe

Okuma süresi: 3 dk.

OpenAI gibi şirketlerden gelen yeni Yapay Zeka sistemleri her zamankinden daha ileri düzeyde, ancak giderek daha fazla yanlış bilgi yayıyorlar – ve kimse nedenini bilmiyor.

Acele mi ediyorsunuz? İşte hızlıca bilmeniz gerekenler:

  • Yeni mantık modelleri, genellikle açıklama yapmadan gerçekleri uydurarak cevapları tahmin eder.
  • OpenAI’nin o4-mini’si, test durumlarının yaklaşık %80’inde cevapları hayal etti.
  • Uzmanlar, hala A.I. karar verme süreçlerini tam olarak anlamadıklarını kabul ediyorlar.

A.I. sistemler daha güçlü hale geliyor ancak daha fazla hata yapmaya da başladılar ve neden olduğu tam olarak bilinmiyor, ilk kez The New York Times tarafından bildirildiği üzere.

Geçen ay, bir kodlama aracı olan Cursor, A.I. destek botunun hatalı bir şekilde kullanıcılarına ürünün birden fazla cihazda kullanılamayacağını bildirmesi sonucu öfkeli müşterileri sakinleştirmek zorunda kaldı.

“Bizim böyle bir politikamız yok. Tabii ki Cursor’u birden fazla makinede kullanmakta özgürsünüz,” diye açıklama yaptı Reddit’te CEO Michael Truell, bu yanlış mesaj için botu suçladı, The Times tarafından bildirildiği üzere.

OpenAI ve Google’ın ileri düzey A.I. sistemleri ile Çin’deki DeepSeek, işlemlerinde hatalar olan “halüsinasyonlar” konusunda artan olaylar yaşamaktadır. Bu araçlar, problemleri çözmek için “akıl yürütme” yeteneklerini kullanır ancak sıklıkla yanlış tahminler ve uydurma bilgiler üretirler.

The Times, yeni model testlerinin sonuçlarının bu sistemlerin yanıtlarının %79’unda uydurma cevaplar ürettiğini bildiriyor.

“Ne kadar çok çaba gösterirsek gösterelim, onlar her zaman yanıltıcı bilgiler üretecek.” dedi, Vectara’nın CEO’su ve eski Google yöneticisi Amr Awadallah, The Times tarafından aktarıldığı gibi. Botlar, olasılığa dayalı yanıtlar ürettikleri için belirlenmiş kurallar olmadan çalışır, bu da yanıltıcı bilgilere yol açar.

Bu, hukuki, tıbbi veya iş verileriyle uğraşan kullanıcılar için büyük bir sorundur. “Bu hatalarla düzgün bir şekilde başa çıkmamak, A.I. sistemlerinin değerini esasen ortadan kaldırır.” dedi, Okahu’nun CEO’su Pratik Verma.

Bir örnekte, AI tarafından oluşturulan hatalar, özellikle hukuki işler gibi hassas alanlarda gerçek dünya problemlarına neden oluyor. Avukatlar, mahkeme belgelerinde AI modellerinden çıkan uydurma bilgileri kullanmak için yaptırımlarla karşı karşıya kaldılar.

Bir rapor, Wyoming’deki iki avukatın Walmart’a karşı bir dava içerisine AI tarafından oluşturulan sahte davalari dahil ettiklerini ve bu durumun federal bir hakimin yaptırım tehdidinde bulunmasına neden olduğunu ortaya çıkardı. Bu durum, doğrulanmış bilgi gerektiren görevler için AI’ya güvenmenin riskleri konusunda hukuk alanında uyarıları tetikledi.

OpenAI’nin o3 modeli, testler sırasında %33 oranında halüsinasyon üretti ki bu, o1 modelinin iki katı. En yüksek halüsinasyon oranını o4-mini modeli %48 ile gösterdi. “Daha yüksek halüsinasyon oranlarını azaltmak için aktif olarak çalışıyoruz,” dedi OpenAI sözcüsü Gaby Raila, The Times tarafından bildirildiği gibi.

Bu sorunlar, AI’nin gazetecilik üzerindeki etkisi konusundaki endişelerle de artıyor. BBC tarafından yapılan bir araştırma, popüler AI sohbet botlarının haber içeriği doğruluğu konusunda zorlandığını buldu, yanıtların %51’i önemli hatalar içeriyordu, bu hatalar arasında uydurma alıntılar ve gerçek dışı bilgiler bulunuyor.

Araştırmacılar, sorunun bir kısmının bu botların nasıl eğitildiği olduğunu belirtiyorlar. “Bu modellerin tam olarak nasıl çalıştığını hala bilmiyoruz,” diye belirtti Washington Üniversitesi’nden Hannaneh Hajishirzi, Times’ın haberine göre.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
5.00 1 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Loader
Loader Devamını oku...