Meta’nın Yapay Zeka Çerçevesinde Kritik Güvenlik Açığı Keşfedildi

Image by standret, from Freepik

Meta’nın Yapay Zeka Çerçevesinde Kritik Güvenlik Açığı Keşfedildi

Okuma süresi: 2 dk.

Meta’nın yaratıcı AI için açık kaynaklı çerçevesinde, Llama Stack olarak bilinen, CVE-2024-50050 adlı ciddi bir güvenlik açığı tespit edildi.

Acele mi Ediyorsunuz? İşte Hızlı Bilgiler!

  • Zafiyet, CVE-2024-50050, güvenilmeyen deserialize edilmiş veri aracılığıyla uzaktan kod yürütülmesine olanak sağlar.
  • Meta, daha güvenli bir Pydantic JSON uygulaması ile 0.0.41 sürümünde bu sorunu giderdi.
  • Zafiyet, sömürülebilirliği nedeniyle CVSS 4.0’da 9.3 (kritik) puan aldı.

Oligo Araştırma ekibi tarafından açıklanan hata, saldırganların framework’u kullanan sunucularda uzaktan kötü amaçlı kodları çalıştırmalarına izin verebilir. Serileştirilmiş verilerin güvensiz bir şekilde ele alınmasından kaynaklanan bu güvenlik açığı, AI geliştirme araçlarını güvence altına almanın süregelen zorluklarını vurgulamaktadır.

Meta tarafından Temmuz 2024’te tanıtılan Llama Stack, Meta’nın Llama modelleri üzerine inşa edilmiş AI uygulamalarının geliştirilmesini ve dağıtılmasını destekler. Araştırma ekibi, hatanın varsayılan sunucusunda yattığını belirtmektedir ki bu, verileri işlemek için Python’ın pyzmq kütüphanesini kullanır.

recv_pyobj adlı özel bir yöntem, verileri otomatik olarak Python’ın güvensiz pickle modülü ile işler. Bu, saldırganların yetkisiz kod çalıştıran zararlı veriler göndermesini mümkün kılar. Araştırmacılar, bir ağ üzerinde maruz kaldığında, varsayılan yapılandırmayı çalıştıran sunucuların uzaktan kod yürütme (RCE) için savunmasız hale geldiğini belirtiyor.

Bu tür saldırılar, kaynak hırsızlığına, veri ihlallerine veya AI sistemleri üzerinde yetkisiz kontrol sağlamaya yol açabilir. Güvenlik firması Snyk tarafından kritik CVSS puanı olarak 9.3 (10 üzerinden) atanmış olan bu zafiyet, Meta tarafından orta derecede ciddi olarak 6.3 olarak değerlendirildi, Oligo’nun raporlarına göre.

Oligo araştırmacıları, açık kaynaklı AI çerçevelerini analiz ederken bu hatayı keşfettiler. Llama Stack’in popülaritesindeki hızlı artışa rağmen – birkaç ay içinde 200 GitHub yıldızından 6.000’in üzerine çıktı – ekip, RCE zafiyetlerinin yaygın bir nedeni olan deserializasyon için pickle’ın riskli kullanımını belirledi.

Hatanın suistimal edilmesi için, saldırganlar açık portları tarayabilir, sunucuya zararlı nesneler gönderebilir ve serileştirmenin sırasında kod yürütmesini tetikleyebilirler. Llama Stack’ın çıkarım sunucusu için Meta’nın varsayılan uygulaması, özellikle hassas olduğu kanıtlanmıştır.

Meta, Oligo’nun Eylül 2024’teki ifşaatının ardından sorunu hızla ele aldı. Ekim ayına gelindiğinde, güvensiz turşu tabanlı serileştirme, Pydantic kütüphanesini kullanarak daha güvenli, tip doğrulamalı JSON uygulaması ile değiştirildi ve bir düzeltme yayınlandı. Kullanıcıların sistemlerini güvence altına almak için Llama Stack versiyon 0.0.41 veya daha yüksek bir versiyona geçmeleri önerilir.

Pyzmq’nin bakımını yapanlar, Llama Stack’ta kullanılan kütüphane, belgelerini güvenilmeyen verilerle recv_pyobj’in kullanımına karşı uyarmak için de güncellediler.

Bu olay, yazılımda güvensiz serileştirme yöntemlerinin kullanılmasının risklerini vurgular. Geliştiricilerin, daha güvenli alternatiflere güvenmeleri ve kütüphaneleri düzenli olarak güncellemeleri, zafiyetleri hafifletmek için teşvik edilir. Llama Stack gibi AI araçları için, bu çerçeveler kritik kurumsal uygulamaları desteklemeye devam ettikçe, sağlam güvenlik önlemleri hayati önem taşır.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!

Çalışmamızı beğenmeniz bizi çok mutlu etti!

Değerli bir okuyucumuz olarak Trustpilot sitesinde bizi puanlamak ister miydiniz? Bu hemen halledilebilen bir işlemdir ve emin olun ki görüşünüz bizim için çok kıymetlidir. Desteğiniz için ne kadar teşekkür etsek az!

Trustpilot'ta bize puan ver
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Loader
Loader Devamını oku...