ChatGPT’nin Doğru Alıntılarla Mücadelesi, Yayıncılar İçin Endişe Kaynağı Oluyor

Image by Sanket Mishra, from Pexels

ChatGPT’nin Doğru Alıntılarla Mücadelesi, Yayıncılar İçin Endişe Kaynağı Oluyor

Okuma süresi: 3 dk.

ChatGPT’nin sıklıkla gösterdiği alıntı hataları, lisanslı içerikle bile, yayıncı güvenini zedeler ve generatif AI araçlarının gazeteciliği yanıltıcı bir şekilde temsil etme risklerini vurgular.

Acele mi Ediyorsunuz? İşte Kısa Bilgiler!

  • ChatGPT genellikle alıntıları uydurur veya yanıltıcı bir şekilde sunar, bu da yayıncılar için endişe kaynağı olur.
  • Araştırmacılar, 200 alıntının 153’ünün yanlış olduğunu buldu, bu da ChatGPT’ye olan güveni zedeliyor.
  • ChatGPT bazen orijinal gazetecilik yerine lisanssız içeriği ödüllendiren kaynakları alıntılar.

Columbia Gazetecilik Okulu’nun Dijital Gazetecilik için Tow Merkezi’nin yakın zamanda yaptığı bir çalışma, ChatGPT’nin alıntı uygulamaları üzerine eleştirel bir ışık tutmuş ve OpenAI’nin jeneratif AI aracına bağımlı olan yayıncılar için önemli zorlukları ortaya çıkarmıştır.

Bulgular, yayıncıların, ChatGPT’nin tutarsız ve sıklıkla yanlış kaynak gösterme eğilimi nedeniyle, lisans anlaşmaları bulunsa bile potansiyel itibar ve ticari risklerle karşı karşıya olduğunu öne sürüyor.

Çalışma, bu hafta Columbia Journalism Review (CJR) tarafından bildirildiği üzere, lisans anlaşmaları olan ve OpenAI’ye karşı dava açan yayıncılar dahil olmak üzere 20 yayıncıdan 200 makalenin alıntılarını ChatGPT’nin atfetme yeteneğini test etti.

OpenAI’ın doğru alıntılar sağlama iddialarına rağmen, sohbet botu 153 durumda yanlış veya kısmen yanlış yanıtlar verdi. Yalnızca yedi kez doğru kaynağı bulma konusundaki yetersizliğini kabul etti, genellikle alıntıları uydurmayı tercih etti.

Örnekler arasında, ChatGPT’nin yanlışlıkla bir Orlando Sentinel alıntısını Time’a atfetmesi ve yetkisiz kaynaklardan çalınan New York Times içeriklerine atıfta bulunması yer alıyor.

Yayıncılar OpenAI’nin tarayıcılarına erişim izni verdiğinde bile, alıntılar genellikle yanlış atfedildi, örneğin orijinal makaleler yerine yayınlanan versiyonlara bağlantı verildi.

MIT Tech Review’un baş editörü Mat Honan, ChatGPT’nin şeffaflığı konusunda şüpheci bir tavır sergiledi ve AI’nin sınırlılıkları hakkında bilgisi olmayan kullanıcıları yanıltabilecek yanıtlar verebileceğini belirtti.

“Benim bakış açımdan, sohbet robotlarının hayal görmeye ve şeyler uydurmaya olan eğilimleriyle oldukça aşinayım […] Ama aynı zamanda, çoğu insanın bunu muhtemelen bilmediğini de biliyorum. […] Bu sohbet robotlarında gördüğünüz küçük uyarıların yeterli olduğunu düşünmüyorum,” dedi CJR’de.

CJR, OpenAI’nin çabalarını savunduğunu belirtiyor, yayıncıların içerik görünürlüğünü yönetmek için araçlar öne çıkarıyor ve alıntı doğruluğunu iyileştirmeyi taahhüt ediyor.

Ancak, Tow Merkezi, içerik taramasını etkinleştirmenin veya içerik lisanslamanın, katılan ve katılmayan yayıncılar arasında tutarsızlıklarla, doğru temsiliyeti garanti etmediğini bulmuştur.

ChatGPT’nin yayıncı içeriğine atıfta bulunurkenki hataları, gazeteciliğe olan güveni aşındırabilir ve yayıncıların itibarlarına zarar verebilir. Yanlış atıflar yapar veya makaleleri yanlış temsil ederse, izleyiciler orijinal kaynakları belirlemekte zorlanabilir, marka tanınırlığını seyreltebilir.

Yayıncılar bile OpenAI’nin tarayıcılarına izin verirken veya lisans anlaşmaları tutarken bu hatalardan bağışık değiller, bu da sistemik hataları vurguluyor. ChatGPT’nin bilgi eksikliklerini kabul etmek yerine yanıltıcı bir şekilde kendinden emin yanıtlar verme eğilimi, kullanıcıları yanıltır ve şeffaflığı zayıflatır.

Bu tür uygulamalar, izleyicileri güvenilir haber kaynaklarından uzaklaştırabilir, intihalı teşvik edebilir ve yüksek kaliteli gazeteciliğin görünürlüğünü zayıflatabilir. Bu sonuçlar, bilgi paylaşımının bütünlüğünü ve dijital medya platformlarına olan güveni tehlikeye atar.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Loader
Loader Devamını oku...