Görüş: Yapay Zeka Halüsinasyon Salgını, Hazır Olmadığımız Bir Kriz

Image generated with DALL·E through ChatGPT

Görüş: Yapay Zeka Halüsinasyon Salgını, Hazır Olmadığımız Bir Kriz

Okuma süresi: 6 dk.

AI hatalarını azaltma konusundaki sürekli vaatlere rağmen, ChatGPT’den Perplexity’ye, Gemini’den Apple Intelligence’a kadar büyük AI araçları hala yanıltıcı bilgiler üretmeye devam ediyor, genellikle alarm verici sonuçlarla. AI riskleri hakkında uyarıda bulunanlar da dahil olmak üzere uzmanlar, uydurma içeriklere aldanmış ve Deep Research gibi gelişmiş araçlar raporları uydurmuştur. Gerçek, görünen o ki insan elinde kalmaya devam ediyor

Chatbotlar yıllar boyunca daha iyi hale geldi – çok daha iyi. Ancak, henüz tam anlamıyla çözülemeyen ve “halüsinasyonlar” olarak bilinen bir sorun var.

Sevgili sohbet botlarımız, bilim kurgu Yoda’sının kararlılığı ve otoritesiyle sorgularımıza parlak cevaplar verirler, hatta son derece yanıldıklarında bile. Ve biz onlara inanırız. Bazen körü körüne.

Birçok bilim insanı, uzman ve hatta Sohbet Botu geliştiricisi yıllardır halüsinasyonlar konusunda uyarıda bulunuyor. Ancak, benimsenme hızla yayılırken—sadece birkaç gün önce OpenAI, haftalık 400 milyon aktif kullanıcıyı bildirdi—AI okuryazarlığı aynı hızda artmadı.

Son çalışmalar, mahkeme davaları ve dramatik olaylar, yanıltıcı bilginin fark ettiğimizden daha tehlikeli olduğunu göstermeye devam ediyor.

Düşündüğümüzden Daha Kötü

Başlangıçta, büyük AI (Yapay Zeka)-üretilmiş hataları fark etmek oldukça komikti – örneğin, kullanıcılara pizza tarifi için “zehirli olmayan tutkal eklemeyi” öneren veya geçen yıl “her gün bir küçük taş yemeyi” öneren Gemini tarafından üretilen utandırıcı AI özetleri gibi. Ancak, AI’ya olan güvenimizi yeniden kazandıkça, durum tırmanmış ve giderek daha endişe verici hale gelmiştir.

Aralık ayında, Apple’ın AI aracının haberleri “özetleyen” başlıklar oluşturduğunu ve Luigi Mangione’nin kendini vurduğunu BBC’nin duyurduğu gibi yanıltıcı ve sahte bilgiler ürettiğini gördük. Bu olayın ardından yayın, Apple’a karşı bir şikayette bulundu ve haber içeriğini analiz ederken generative AI’nin doğruluğunu araştırmaya başladı.

Birkaç gün önce yayınlanan BBC’nin bulguları, endişe verici istatistikleri ortaya çıkardı: Popüler AI Chatbotları tarafından verilen yanıtların %51’inde önemli sorunlar vardı, modeller tarafından sağlanan alıntıların %13’ü tamamen uydurma idi ve verilerin %19’u yanlıştı.

Gençler, sahte haberleri gerçek haberlerden ayırt etmekte genellikle zorlanan ve AI tarafından üretilen içeriklerden kolayca etkilenebilen en fazla etkilenen popülasyonlar arasındadır. Ocak ayında yayınlanan bir çalışma, gençlerin %35’inin AI modelleri tarafından üretilen sahte içerikler tarafından yanıltıldığını ve %22’sinin sahte bilgileri paylaştığını göstermiştir.

Ama sadece gençler ve dikkati dağılan kişiler bu hayallerin kurbanı olmuyor. Ve sadece Gemini veya Apple Intelligence değil.

Hiçbir AI Modeli Korunmasız Değil, Hiçbir Endüstri Güvende Değil

BBC tarafından yapılan araştırma başka bir konuyu doğruluyor: tüm AI modelleri hayal görüyor. Uzmanlar, en popüler modeller olan ChatGPT, Gemini, Perplexity ve Copilot’u inceledi. Hiçbir AI modeli hatalardan muaf değil. Anthropic, bu konuyu ele alan bir sayfaya sahip ve hayal görme durumunu nasıl azaltabileceğimize dair fikirler öneriyor.

“Claude gibi en gelişmiş dil modelleri bile bazen gerçeklere aykırı veya verilen bağlamla tutarsız metin oluşturabilir,” diye belirtiyor döküman. Diğer AI şirketleri de sahte içerikten kaçınmak için ipuçları ve hileler içeren benzer sayfalar paylaştı, ancak bu pek de kolay değil ve oldukça uzun bir süre boyunca çözülemeyen bir problem olmuştur.

2023 yılında, OpenAI, halüsinasyonları bertaraf etmek için yeni ve yenilikçi yöntemler üzerinde çalıştığını duyurmuştu. Spoiler uyarısı: bu hala büyük bir sorun.

Bir yıldan fazla bir süre önce, Ocak 2024’te, CEO Aravind Srinivas, Perplexity’nin halüsinasyonlarının çoğunlukla ücretsiz hesaplarda meydana geldiğini söyledi. “Şikayetlerin çoğu ürünün ücretsiz sürümünden geliyor,” dedi Srinivas ve sorunu çözmek için daha fazla GPU getirdiklerini ekledi. Ancak, Ekim ayına gelindiğinde, New York Post ve Dow Jones, Perplexity’ye dava açmıştı – çünkü model, sürekli olarak sahte haberleri yayınlarına atfediyordu – ve ABD seçimleri için geliştirdiği AI aracı, uzmanlar tarafından test edildi ve tutarsızlıklar, yanlış özetler ve halüsinasyonlar ortaya çıktı.

Halüsinasyon Hastalığı Bilimsel ve Akademik Seviyelere Ulaşıyor

Şu anda en büyük endişelerden biri, hatta AI’nin riskleri ve tehlikeleri konusunda uyarıda bulunan uzmanların bile bu halüsinasyon eğilimli araçlara kanmış olmalarıdır.

Aralık ayında, Stanford profesörü ve teknoloji ve yanıltıcı bilgi konusunda uzman Jeff Hancock, bir mahkeme beyanını oluşturmak için AI kullanmakla suçlandı. Hancock, derin sahte içeriklerin kullanımını suçlayan 2023 yılına ait devlet kanununu savunan 12 sayfalık bir beyanname dosyası sundu, bu beyanname 15 alıntı içeriyordu. Ancak, bu alıntılardan ikisi hiçbir yerde bulunamadı – çünkü yanıltıcı bilgi uzmanının tercih ettiği AI aracı ChatGPT, onları sadece uydurmuştu.

Bu yıl “Gerçek, Güven ve Teknoloji” dersini vermeyi planlayan Hancock, alıntılarını düzenlemek için OpenAI’nin sohbet botunu kullandığını ve bu durumun halüsinasyonlara yol açtığını açıkladı. Araştırmacı özür diledi—ve beyanının asıl noktalarını desteklemekte ısrar etti—, ve bize, hatta AI riskleri konusunda en bilgili uzmanların bile bu duruma karşı savunmasız olduğunu öğreten değerli bir ders verdi.

Profesör Hancock, mahkemeye AI tarafından üretilmiş yanıltıcı belgeler sunan tek kişi olmamıştır elbette. Walmart’a karşı açılan bir dava, avukatların argümanlarını oluşturmak için AI tarafından üretilmiş sahte davaları kullanmasından dolayı yakın zamanda viral hale geldi. Aslında, bu sorun, ABD mahkemelerinde o kadar sık hale geldi ki, Morgan & Morgan hukuk firması, AI tarafından üretilmiş alıntıları kullanmanın riskleri hakkında 1.000’den fazla avukatına e-postalar gönderdi ve Amerikan Barosu, 400.000 üyesine avukatlık etik kurallarını—AI tarafından üretilen bilgileri de içererek—hatırlattı.

Derin Araştırma da

Şu anda en popüler yapay zeka araçlarından biri olan “Deep Research”, araştırmalarında daha karmaşık sonuçlar arayan uzmanlar ve bilim insanları için tasarlanmıştır. OpenAI’nin versiyonu başlangıçta $200’lık Pro aboneliği gerektirse de, bu araçtan halüsinasyonlar da eksik değil.

Reddit’teki kullanıcılar bu konudaki endişelerini dile getirdiler ve tüm popüler modellerin—Perplexity, ChatGPT ve DeepSeek—halüsinasyon yaşadığını bildirdiler. Araştırmacılar ve yapay zeka uzmanları da X gibi diğer sosyal medya platformlarında rahatsız edici sonuçları paylaştılar.

“Araç, muhteşem bir şekilde yazılmış ve tartışılmış bir rapor üretti,” diye bir kullanıcı yazdı gençler tarafından yapılan matematik çalışmalarını incelemek için OpenAI’nin Deep Research aracını kullanan. “Tek sorun, bunların hepsinin uydurma olması.”

“Deep Research, binlerce makalelik bir veri seti derlemek ve her bir yazarın doğum yılı bilgisini güvenilir kaynaklardan topladığını iddia ederken, bir dizi istatistik ve analiz uydurdu,” diye bir başkası paylaştı. “Bunların hiçbiri doğru değil.”

Gerçekler İnsan Ellerinde Kalıyor

Sohbet botları bir gün halüsinasyon görmeyi bırakacak mı? Yıllardır AI’nin zayıf noktası açıktı – bunu, 2023’te AI tarafından oluşturulan bölümler test edildiğinde Planet Money gibi podcastlerde gördük ve en gelişmiş modellerde, hatta sadece uzman ve teknoloji meraklısı topluluklar tarafından özel kullanım için tasarlanmış olanlarda bile görmeye devam ediyoruz.

Belki de bunun sürekli bir sorun olacağını kabullenme ve AI araçları ile oluşturduğumuz ve paylaştığımız şeyler için sorumluluk üstlenmemiz gerektiğini anlama zamanıdır.

Bunun yaygın bir problem gibi görünmesine rağmen, AI risk uzmanlarının bile AI’nin ikna edici ve inandırıcı yazılarına kapılmaları kesinlikle endişe verici. Durum, dijital okuryazarlığı geride bırakarak tam hızda devam eden benimseme ile daha da karmaşık hale geliyor, tutarsızlıklar ve uydurma alıntılar çoğalırken.

AI halüsinasyonlarının ortaya çıktığı durumlar genellikle gerçekleri kontrol etmenin hayati önem taşıdığı durumlar olmuştur – bu durum, şimdi Zuckerberg’in gerçek kontrol departmanını ortadan kaldırdığı bir dönemde ona hatırlatılmalı. Bu, özellikle avukatların ve hakimlerin gerçekleri ve dava detaylarını doğrulamak için çalıştığı mahkemelerde ve doğruluk ve kaynak doğrulamasının önemli olduğu haber medyasında belirgindir.

Peki ya detayları kimse incelemediğinde ne olur? Günlük, daha kişisel bağlamlarda ne oluyor? Şu anda, milyonlarca öğrenci çalışmaları için AI tarafından oluşturulan yanıtları ezberliyor, kullanıcılar rahatsızlıkları tedavi etmek için AI tarafından sağlanan talimatlara uyuyor ve diğerleri yeni konular hakkında bilgi ediniyor, teknolojiye tamamen güveniyor.

Karşı karşıya olduğumuz bu yeni gerçekliğin sonuçları ölçülemez ve öngörülemezdir ve gerçek -şimdilik- sorgulama ve doğrulama yapmak için zaman ayıranların ellerindedir.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Loader
Loader Devamını oku...