ChatGPT’nin Hafıza Zafiyeti: Potansiyel Bir Güvenlik Riski

Image by Tumisu, from Pixabay

ChatGPT’nin Hafıza Zafiyeti: Potansiyel Bir Güvenlik Riski

Okuma süresi: 2 dk.

  • Kiara Fabbri

    Yazan: Kiara Fabbri Multimedya Yazarı

  • Lokalizasyon ve Çeviri Ekibi

    Çevirisi tarafından yapılmıştır Lokalizasyon ve Çeviri Ekibi Lokalizasyon ve Çeviri Hizmetleri

Acele mi Ediyorsunuz? İşte Hızlıca Bilgiler!

  • ChatGPT’nin uzun süreli hafıza özelliğinde bir zafiyet tespit ettim.
  • Bu hata, e-postalar gibi güvenilmeyen kaynaklardan istem enjeksiyonuna izin veriyor.
  • ChatGPT, manipüle edilmiş hafıza girdilerine dayanarak yanlış bilgi depolayabilir.

ArsTechnica (AT) Salı günü, OpenAI’nin ChatGPT’sindeki bir açıklığı gösteren bir çalışmayı raporladı. Bu açıklık, saldırganların sadece AI’nın kötü niyetli bir web bağlantısını görüntülemesiyle kullanıcıların uzun vadeli hafızalarını manipüle etmelerine olanak sağladı ve bu da tüm ChatGPT ile etkileşimleri saldırganın web sitesine gönderdi.

Güvenlik araştırmacısı Johann Rehberger, bir Proof of Concept (PoC) aracılığıyla bu hatayı gösterdi ve bu açıklığın nasıl kullanılarak ChatGPT’nin uzun vadeli hafızasından veri sızdırılabileceğini gösterdi.

Rehberger, ChatGPT’nin uzun süreli hafıza özelliğinin zayıf olduğunu keşfetti. Bu özellik, Eylül ayından bu yana yaygın olarak kullanılmaktadır.

Zayıflık, “komut enjeksiyonu” olarak bilinen bir teknikle ilgilidir. Bu teknik, büyük dil modelleri (LLM’ler) gibi ChatGPT’nin, e-postalar veya web siteleri gibi güvenilmeyen kaynaklara gömülü talimatları takip etmesine neden olur.

PoC saldırısı özellikle ChatGPT macOS uygulamasını hedef aldı, burada bir saldırgan bir web bağlantısında kötü niyetli bir resim barındırabilir ve AI’yi onu görüntülemesi için yönlendirebilir.

Bağlantıya erişildiğinde, ChatGPT ile yapılan tüm etkileşimler saldırganın sunucusuna iletiliyordu.

AT’ye göre, Rehberger bu hatayı Mayıs ayında, OpenAI’in hafıza özelliğini test etmeye başlamasından kısa bir süre sonra buldu. Bu özellik, kullanıcı ayrıntılarını – yaş, cinsiyet ve inançlar gibi – gelecekteki etkileşimler için saklar.

Her ne kadar özel bir şekilde bu zafiyeti rapor etmiş olsa da, OpenAI ilk başta bunu bir “güvenlik sorunu” olarak sınıflandırdı ve raporu kapattı.

Haziran ayında Rehberger, kullanıcı girişinin sürekli olarak bir uzak sunucuya sızdırılmasını sağlayan PoC istismarını içeren bir takip açıklaması sundu. Bu durum, OpenAI mühendislerinin kısmi bir düzeltme yayınlamasını gerektirdi.

Son düzeltme, bu spesifik veri sızdırma yöntemini önlese de Rehberger, hızlı enjeksiyonların hala bellek aracını saldırganlar tarafından yerleştirilen yanıltıcı bilgileri depolamak için manipüle edebileceği konusunda uyarıda bulunuyor.

Kullanıcıların, şüpheli veya hatalı girişler için depolanan anılarını izlemeleri ve ayarlarını düzenli olarak gözden geçirmeleri tavsiye edilir.

OpenAI, hafızaları yönetme, silme veya hafıza özelliğini tamamen devre dışı bırakma konusunda kılavuzlar sağladı.

Şirket, gelecekte benzer saldırıları önlemek için daha geniş önlemler hakkındaki sorulara henüz yanıt vermedi.

Rehberger’ın bulguları, özellikle istemi enjeksiyonlarına ve manipülasyona karşı savunmasız olduğunda, AI sistemlerindeki uzun süreli hafızanın potansiyel risklerini vurguluyor.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Devamını oku...