Araştırmacılar, yapay zekânın HDMI Kablo Sızıntıları Aracılığıyla Ekranınızı Görebileceğini Açıkladı

Image by Tima Miroshnichenko, from Pexels

Araştırmacılar, yapay zekânın HDMI Kablo Sızıntıları Aracılığıyla Ekranınızı Görebileceğini Açıkladı

Okuma süresi: 2 dk.

Yeni bir çalışma, hackerların HDMI kablolarından gelen elektromanyetik radyasyonu keserek ekran içeriğini çözebileceğini ve bunu yaparken yapay zekadan yararlandığını ortaya koyuyor. Bu sofistike dinleme biçimi, endişe verici olmasına rağmen, genellikle yüksek güvenlikli ortamları hedef alıyor ve sıradan kullanıcılar için çok büyük bir tehdit oluşturmuyor.

Bilgisayarlar ve ekranlar arasındaki bağlantı bir zamanlar tamamen analog idi, ancak bugün çoğunlukla dijitaldir ve verileri yüksek çözünürlüklü multimedya arayüzü (HDMI) kablolardan ikili olarak aktarır. Bir sinyal bir kablo üzerinden seyahat ederken, biraz elektromanyetik radyasyon sızar ve analog sinyallerle hackerlar bu sızıntıyı nispeten kolay bir şekilde kesebilir.

Bu fenomeni kullanan saldırılara TEMPEST adı verilir. Dijital sinyaller daha karmaşık olup daha fazla veri taşıdığı için onları deşifre etmek daha zordur, ancak yine de karşıdan yakalanabilirler.

Federico Larroca ve ekibi Uruguay de la República Üniversitesi’nde, bu karşıdan yakalanan dijital sinyalleri birkaç metre uzaktan yeniden yapılandırabilen bir AI modeli geliştirdiler.

Modelin performansı, yeniden oluşturulan görüntüden yakalanan metin ile orijinal ekran görüntüsünün karşılaştırılmasıyla değerlendirildi. YZ, yaklaşık yüzde 30’luk bir hata oranı elde etti, bu da bazı karakterler yanlış yorumlanmasına rağmen metnin çoğunun doğru bir şekilde okunabileceği anlamına geliyor. Bu, hata oranının önceki yöntemlere kıyasla yüzde 60 daha düşük olduğu önemli bir iyileştirmedir.

Hackerlar bu tekniği, bir ekran üzerinde görüntülenen şifreler ve banka bilgileri gibi hassas bilgilere casusluk yapmak için kullanabilirler. Bunu, uzaktan antenlerle veya gizli cihazlarla sinyalleri keserek yapabilirler.

New Scientist ile yapılan bir röportajda Larroca, “Hükümetler bu konuda endişeli, [ama] normal bir kullanıcının çok endişelenmesi gerektiğini söylemezdim, […] Ama güvenliğinizi gerçekten önemsiyorsanız, sebepleriniz ne olursa olsun, bu bir sorun olabilir.” diyor.

Bu riskleri hafifletmek için, araştırmacılar, kullanıcının neredeyse fark edemeyeceği bir şekilde görüntüyü değiştirerek uygulanabilecek iki önlem öneriyorlar. Bu önlemler, AI’nin ele geçirilen sinyalleri çözme yeteneğini bozar. Bir yöntem, görüntüye düşük seviye gürültü eklemeyi içerir. Bu, sinir ağına karşı bir saldırı işlevi görür ve sonuçta elde edilen metnin büyük ölçüde okunamaz hale gelmesini sağlar. Diğer bir yaklaşım ise, görüntünün arka planına bir renk gradyanı uygulamaktır, örneğin beyazdan siyaha bir rampa, bu da ele geçirilen sinyali önemli ölçüde değiştirir.

Bu makaleyi beğendiniz mi?
Puan verin!
Hiç sevmedim Pek beğenmedim Fena değildi Gayet iyiydi! Bayıldım!
0 0 kullanıcı tarafından oy verildi
Başlık
Yorum
Geri bildiriminiz için teşekkür ederiz
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Yorum bırakın

Devamını oku...