Araştırmacılar, Açık Kaynaklı Yapay Zeka ve Makine Öğrenmesi Modellerinde Güvenlik Zaafiyetleri Keşfetti
Acele mi ediyorsunuz? İşte Hızlı Bilgiler!
- Açık kaynaklı AI ve ML araçlarında 30’dan fazla güvenlik açığı bulundu.
- Ciddi zaafiyetler, Lunary, ChuanhuChatGPT ve LocalAI gibi araçları etkiliyor.
- LocalAI’daki hata, saldırganların zamanlama analizi ile API anahtarlarını çıkarabilmelerine olanak sağlıyor.
Son yapılan bir araştırma, açık kaynaklı AI ve makine öğrenme (ML) modellerinde 30’dan fazla güvenlik açığı ortaya çıkardı, bu durum potansiyel veri hırsızlığı ve yetkisiz kod çalıştırma konusunda endişeleri artırdı. Bu durum The Hacker News (THN) tarafından bildirildi.
Bu güvenlik açıkları, ChuanhuChatGPT, Lunary ve LocalAI gibi yaygın olarak kullanılan araçlarda bulundu ve Protect AI’nin Huntr hata ödül platformu aracılığıyla bildirildi. Bu platform, geliştiricileri güvenlik sorunlarını belirlemeye ve ifşa etmeye teşvik eder.
Belirlenen en ciddi güvenlik açıkları arasında, büyük dil modellerini (LLM’ler) üretim ortamlarında yönetmek için tasarlanmış bir araç olan Lunary’yi etkileyen iki ana hata bulunmaktadır.
İlk hata, CVE-2024-7474, bir Güvensiz Doğrudan Nesne Referansı (IDOR) güvenlik açığı olarak sınıflandırılmıştır. Bu, erişim ayrıcalıklarına sahip bir kullanıcının, yetki olmadan diğer kullanıcıların verilerini görüntülemesine veya silmesine olanak sağlar, bu da potansiyel olarak veri ihlallerine ve yetkisiz veri kaybına yol açabilir.
İkinci kritik konu, CVE-2024-7475, bir saldırganın sistemin SAML (Security Assertion Markup Language) konfigürasyonunu güncellemesine olanak sağlayan hatalı bir erişim kontrol zafiyetidir.
Bu hatayı kullanarak saldırganlar, giriş güvenliğini atlayarak kişisel verilere izinsiz erişim elde edebilir ve bu durum, LLM’leri yönetmek için Lunary’ye güvenen herhangi bir kuruluş için önemli riskler oluşturabilir.
Lunary’de belirlenen bir başka güvenlik zafiyeti olan CVE-2024-7473, saldırganların diğer kullanıcılar tarafından gönderilen uyarıları güncellemelerine olanak sağlayan bir IDOR hassasiyetini de içerir. Bu, bir kullanıcı kontrollü parametrenin manipüle edilmesiyle gerçekleştirilir, bu da sisteme başkalarının etkileşimlerine müdahale etme olasılığını sağlar.
THN’in belirttiği gibi, ChuanhuChatGPT’deki kritik bir zafiyet (CVE-2024-5982), bir saldırganın kullanıcı yükleme özelliğindeki bir yol geçiş hatasını istismar etmesine izin verir.
Bu kusur, keyfi kod yürütme, dizin oluşturma ve hassas verilerin açığa çıkmasına yol açabilir, bu araca dayanan sistemler için yüksek risk oluşturur. Kullanıcıların kendi barındırdıkları LLM’leri çalıştırmalarını sağlayan başka bir açık kaynak platformu olan LocalAI’nin, benzer güvenlik risklerine yol açan iki önemli kusuru olduğunu THN belirtti.
Birinci kusur, CVE-2024-6983, saldırganların zararlı bir yapılandırma dosyası yüklemesine izin vererek kötü amaçlı kod yürütmesini sağlar. İkincisi, CVE-2024-7010, hackerların sunucu yanıt sürelerini ölçerek API anahtarlarını çıkarabilmelerine olanak tanır, her bir anahtar karakterini kademeli olarak çıkarmak için bir zamanlama saldırı yöntemi kullanır, diye not düştü THN.
Bu bulgulara yanıt olarak, Protect AI, Python kod tabanlarındaki açıklıkları tespit etmek için büyük dil modellerini kullanan açık kaynaklı bir Python statik kod analizörü olan Vulnhuntr‘ı tanıttı, diye THN belirtti.
Vulnhuntr kodu daha küçük parçalara ayırarak bir dil modelinin bağlam penceresinin sınırları içinde güvenlik açıklarını belirler. Proje dosyalarını tarayarak kullanıcı girişinden sunucu çıkışına kadar potansiyel zayıflıkları tespit eder ve izler, AI koduyla çalışan geliştiricilerin güvenliğini artırır.
Bu keşifler, AI ve ML sistemlerinde sürekli güvenlik değerlendirmesi ve güncellemelerin önemini, gelişmekte olan AI teknolojisi manzarasında ortaya çıkan tehditlere karşı korunma adına, kritik bir şekilde vurgulamaktadır.
Yorum bırakın
Vazgeç