Yapay Zeka Üretilen Zararlı Yazılım Varyasyonları, Durumların %88’inde Tespit Edilmeyi Atlatıyor
Son araştırmalar, AI’nin potansiyel olarak 10.000 yeni malware varyantı üretebileceğini ve vakaların %88’inde tespit edilemeyeceğini ortaya koydu, bu The Hacker News tarafından rapor edildi.
Acele mi Ediyorsunuz? İşte Hızlı Bilgiler!
- LLM’ler, doğal görünümlü kod varyasyonları oluşturarak zararlı yazılımları yeniden yazıp tespit edilmekten kaçarlar.
- Araştırmacıların tekrarlayan yeniden yazma algoritması, tespit sistemlerini atlatırken kötü niyetli işlevselliği korur.
- LLM’nin bulanıklığı, orijinal kodu daha etkili bir şekilde taklit ederek geleneksel araçları geride bırakır.
Bu gelişme, büyük dil modellerinin (LLM’ler) kötü amaçlar için kullanılmasının artan risklerini vurgulamaktadır.
Araştırma, Palo Alto Networks’teki siber güvenlik uzmanları tarafından yürütüldü ve düşmanca bir makine öğrenme algoritması kullanarak yeni, tespit edilemez malware formları oluşturmayı başardı. Ekip, LLM’leri kötü amaçlı JavaScript kodunu yeniden yazmak için kullanarak, malware’ın çekirdek işlevselliğini değiştirmeden binlerce yeni varyant oluşturabildi.
Temel zorluk, geleneksel malware tespit araçlarının sınırlılıklarını aşmaktı. Bu araçlar genellikle değişken yeniden adlandırma veya kod küçültme gibi kodları karıştırma teknikleriyle başa çıkmakta zorlanmaktadır.
En endişe verici bulgulardan biri, bu AI tarafından oluşturulan varyantların, yalnızca modifiye edilmiş örneklerin %12’sini zararlı olarak işaretleyen VirusTotal gibi güvenlik araçlarından kolayca kaçabilmesiydi.
LLM’nin ölü kod ekleme, dize bölmeyi ve beyaz alan kaldırmayı içeren çoklu, ince kod dönüşümlerini gerçekleştirme yeteneği, saldırganların mevcut zararlı yazılımları neredeyse zararsız koddan ayırt edilemez bir şekle dönüştürmelerini mümkün kıldı.
Bu dönüşümler o kadar etkiliydi ki, derin öğrenme modelleri bile onları tespit etmekte başarısız oldu ve zararlı puanını neredeyse %100’den %1’in altına düşürdü.
Araştırma, LLM tabanlı gizleme yönteminin geleneksel araçlara göre önemli bir avantajını da vurguladı. Mevcut zararlı yazılım gizleyiciler geniş çapta bilinir ve öngörülebilir sonuçlar üretirken, LLM’ler daha doğal görünümlü kod oluşturur, bu da güvenlik sistemlerinin zararlı aktiviteyi tespit etmesini çok daha zorlaştırır.
Bu organik dönüşüm, AI tarafından üretilen zararlı yazılımı daha dirençli hale getirerek, gelişen tehditlere yanıt olarak algılama stratejilerinin adapte edilmesinin önemini vurgular.
Bu sofistike LLM tabanlı saldırılara karşı koymak için, araştırma ekibi, on binlerce LLM tarafından üretilen örnekle kendi zararlı JavaScript sınıflandırıcılarını yeniden eğiterek bir savunma stratejisi uyguladı.
Bu yeniden eğitim, algılama oranlarını %10 oranında artırarak, yeni üretilen kötü amaçlı yazılım varyasyonlarını belirleme yeteneğini önemli ölçüde geliştirdi. Bu çabalara rağmen, bulgular, AI destekli siber suçların gelişen yeteneklerine ayak uydurabilmek için siber güvenlikte sürekli yenilik yapmanın acil ihtiyacını vurguluyor.
Ayrıca, paralel bir şekilde macOS hedefli kötü amaçlı yazılımın artışını generatif AI araçları sürüklüyor. macOS pazar payı üç yılda %60 büyürken, malware-as-a-service (MaaS) saldırganların kripto para cüzdanları ve Keychain ayrıntıları gibi hassas verilere hedef almayı daha ucuz ve kolay hale getirdi.
Ayrıca, AI destekli robotlar potansiyel bir güvenlik endişesi haline gelmiştir. Araştırmacılar, AI kontrollü robotların jailbreak edilmesinin, otonom araçları çarpmak veya robotları casusluk için kullanmak gibi tehlikeli eylemlere yol açabileceğini keşfettiler.
RoboPAIR adı verilen bir algoritmanın geliştirilmesi, robotları silah kullanma ve patlayıcı cihazları bulma gibi zararlı görevleri yerine getirmek için manipüle etme konusunda %100 başarı oranı gösterdi.
Siber suçlular giderek daha fazla daha sofistike saldırılar için AI’yi kullanmaya başladıkça, kuruluşlar ve bireyler aynı şekilde dikkatli olmalı, savunma sistemlerini sürekli güncellemelidir.
Yorum bırakın
Vazgeç