
Image by charlesdeluvio, from Unsplash
Yeni Yapay Zeka Kodu Güvenlik Açığı, Milyonları Potansiyel Siber Saldırılara Maruz Bırakıyor
Pillar Security ‘deki araştırmacılar, GitHub Copilot ve Cursor gibi yaygın kullanılan AI destekli kodlama yardımcılarında önemli bir güvenlik açığı keşfettiler.
Acelesi olanlar için hızlı bilgiler:
- Hackerlar, kural dosyalarına gizli talimatlar enjekte ederek AI kodlama asistanlarını istismar edebilir.
- Saldırı, AI’yi kompromize edilmiş kod üretmeye kandırmak için gizli Unicode karakterlerini kullanır.
- Bir kez enfekte olduktan sonra, kural dosyaları projeler arasında zafiyetler yayıyor ve yazılım güncellemelerine dayanabiliyor.
“Kurallar Dosyası Arkakapı” olarak adlandırılan bu yeni saldırı yöntemi, hackerların gizli zararlı talimatları yapılandırma dosyalarına yerleştirmesine olanak sağlar. Bu durum, AI’ın standart güvenlik kontrollerini atlayabilen tehlikeli kodlar üretmesini sağlar.
Geleneksel saldırıların aksine, bu teknik AI’yi kendisini manipüle ederek, onu siber suçlular için bilmeden bir araç haline getiriyor. “Bu saldırı, geliştiriciler ve güvenlik ekipleri için neredeyse görünmez kalıyor,” diye uyardı Pillar Security araştırmacıları.
Pillar, yaratıcı AI kodlama araçlarının geliştiriciler için vazgeçilmez hale geldiğini rapor ediyor, 2024 GitHub anketi %97’sinin bu araçlara güvendiğini ortaya koyuyor.
Bu araçlar yazılım geliştirmeyi şekillendirirken, aynı zamanda yeni güvenlik riskleri de oluştururlar. Hackerlar artık AI asistanlarının kural dosyalarını – AI kodlama davranışını yönlendirmek için kullanılan metin tabanlı konfigürasyon dosyaları – nasıl yorumladığını istismar edebilir.
Bu kural dosyaları, genellikle kamuya açık olarak paylaşıldığı veya açık kaynaklı depolarda saklandığı için, genellikle denetim yapılmadan güvenilir. Saldırganlar, bu dosyalara gizli Unicode karakterleri veya ince ipuçları ekleyerek, AI tarafından oluşturulan kodu geliştiricilerin asla fark etmeyebileceği şekillerde etkileyebilir.
Bir kez tanıtıldığında, bu kötü amaçlı talimatlar projeler arasında sessizce yayılır ve güvenlik açıklarını yaygınlaştırır. Pillar Security, basit bir kural dosyasının nasıl manipüle edilerek kötü amaçlı kodlar ekleyebileceğini gösterdi.
Görünmez Unicode karakterler ve dil hileleri kullanarak saldırganlar, hassas verileri ifşa eden veya kimlik doğrulama mekanizmalarını atlayan scriptler gibi gizli zafiyetler içeren kodlar oluşturması için AI asistanlarına talimat verebilirler. Daha da kötüsü, AI bu değişiklikler hakkında geliştiriciyi hiç uyarmaz.
“Bu saldırı, farklı AI kodlama asistanları arasında çalışır, sistemik bir zafiyeti önerir,” diye not düşmüş araştırmacılar. Bir kural dosyası tehlikeye girer girmez, o projedeki her sonraki AI tarafından üretilen kod oturumu potansiyel bir güvenlik riski haline gelir.
Bu zafiyetin çok geniş kapsamlı sonuçları vardır çünkü zehirlenmiş kural dosyaları çeşitli kanallar aracılığıyla yayılabilir. Açık kaynaklı depolar önemli bir risk oluşturur, çünkü bilgisiz geliştiriciler hazır kural dosyalarını, tehlikeye girdiklerini fark etmeden indirebilirler.
Geliştirici toplulukları da, kötü niyetli aktörlerin gizli tehditler içeren görünüşte yardımcı konfigürasyonları paylaştığı zaman bir dağıtım vektörü haline gelir. Ek olarak, yeni yazılımları kurmak için kullanılan proje şablonları, bu istismarları bilmeden taşıyabilir ve başlangıçtan itibaren zafiyetleri gömülür.
Pillar Security, sorunu hem Cursor’a hem de GitHub’a Şubat ve Mart 2025’te bildirdi. Ancak, her iki şirket de sorumluluğu kullanıcılara yükledi. GitHub, geliştiricilerin AI tarafından oluşturulan önerileri gözden geçirmekten sorumlu olduklarını belirtirken, Cursor riskin, kural dosyalarını yöneten kullanıcıların üzerinde olduğunu belirtti.
Yorum bırakın
Vazgeç