
Image generated with DALL·E through ChatGPT
Görüş: Deepfake Dolandırıcılıkları, Aşkı ve Güveni Hiç Olmadığı Kadar İstismar Ediyor
Yapay Zeka ile gerçekleştirilen dolandırıcılıklar artıyor ve siber suçlular deepfake teknolojisi kullanarak, kurbanları manipüle eden inandırıcı videolar ve görseller oluşturuyorlar. Brad Pitt’e yardım ettiğine inanan bir Fransız kadından, yüksek kaliteli bir deepfake ile kandırılan bir kurbanı düşünün, gerçeklik ve aldatma arasındaki çizgiler giderek bulanıklaşıyor. Yapay Zeka araçları geliştikçe, riskler de artıyor.
Birçoklarımız bu haberi Ocak ayında gördü: bir Fransız kadın, bir yıldan fazla süredir ilişkisi olduğunu düşündüğü Brad Pitt’e para verdiğine inandığı için dolandırıcılar tarafından 850,000 dolardan fazla para kaybetti.
Dolandırıcılar, gelişmiş üretken yapay zeka kullanarak “selfie”ler oluşturdu ve kanıtlar üretti, acil tıbbi ihtiyaçları olan sahte bir Pitt’in trajik hikayesine, boşanma sürecinde olan 53 yaşındaki tasarımcı Anne’i ikna ettiler. Pitt’in Angelina Jolie’den boşanması nedeniyle fonlarının dondurulduğunu iddia ettiler.
Anne, hikayesini milyonlarca alay, hakaret ve sanal saldırıyla karşı karşıya kalarak halka açık bir şekilde paylaşma kararı aldı – bu cesur ve riskli bir karardı. “Bir aptal gibi, ödedim… Onu her şüphelendiğimde, şüphelerimi dağıtmayı başardı,” diye anlattı Fransız bir Youtube programında, BBC tarafından bildirildiği gibi. “Sadece oynandım, bunu kabul ediyorum ve bu yüzden ortaya çıktım, çünkü ben tek değilim.”
O değil. Birkaç ay sonra İspanyol polisi, Pitt’in kılığına girerek iki başka kadını dolandıran 5 kişiyi tutukladı. Birkaç gün önce, bir Çinli adam da çevrimiçi kız arkadaşının tıbbi işlemler ve işini finanse etmek için paraya ihtiyacı olduğuna inandırıldı.
Kurbanlar, başka hiçbir yerde bulunmayan kişiselleştirilmiş videolar ve fotoğraflar aldı—bu görüntüler, onları aldatıcılarının karmaşık yalanlarına daha da ikna etti.
Son zamanlarda Entrust tarafından yayınlanan bir rapor, her 5 dakikada bir Deepfake denemesi yapıldığını öne sürüyor. Her gün, üretken AI ile dolandırılan yeni insan vakaları ortaya çıkıyor – bu durum, borç ve utanç içinde gömülü olan ve bunu yetkililere, halka açıklamaya cesaret edemeyen binlerce hatta milyonlarca insanı göz önünde bulundurduğumuzda endişe verici bir trend.
DeepFake Dolandırıcılıkları Artıyor
Çok sayıda çalışma ve rapor, AI tarafından desteklenen dolandırıcılık ve siber saldırılardaki artış hakkında uyarılarda bulundu. TrustPair’in 2025 Dolandırıcılık Trendleri ve İçgörüleri adlı çalışması, AI destekli dolandırıcılıkta yıllık bazda %118’lik bir artış olduğunu gösterdi. Bu durum, CFO tarafından raporlandı.
Merhaba, ses güvenliği ve performans çözümleri konusunda uzmanlaşmış bir Amerikan şirketi olan Hiya, yakın zamanda bir anketin sonuçlarını paylaştı ve altı ülkedeki müşterilerin %31’inin 2024’te derin sahte aramalar aldığını ve bunların %45’inin dolandırıldığını açıkladı. Bu grubun %34’ü para kaybetti ve %32’si kişisel bilgilerinin çalındığı tespit edildi. Ortalama olarak, mağdurlar telefon dolandırıcılıkları nedeniyle her biri 500 dolardan fazla kaybediyor.
Birkaç gün önce, The Guardian, Doğu Avrupa’daki Gürcistan’da organize olmuş bir ağın, Facebook ve Google’da sahte reklamlar kullanarak Avrupa, Kanada ve İngiltere’deki 6.000’den fazla kişiyi dolandırdığını ve operasyonları aracılığıyla 35 milyon dolar kazandığını ortaya çıkardı.
Yaklaşık 85 yüksek maaşlı Gürcü dolandırıcı, dolandırıcılıklarında İngiliz gazeteci Martin Lewis, yazar ve maceraperest Ben Fogle ve Elon Musk gibi kamu figürlerini kullandı. Dolandırıcılar, sahte kripto para birimi ve diğer yatırım planlarını tanıttı, kurbanlarına dijital bankalar aracılığıyla para transferi yaptırdılar, örneğin Revolut ki bu banka son zamanlarda İngiltere’de bankacılık lisansı aldı.
Gelişmiş AI, Daha Sofistike Dolandırıcılıklar
Siber suçlular, son birkaç yıldır generatif AI’ı kullanıyorlar, ChatGPT gibi araçları kullanarak etkileyici e-postalar oluşturup çeviriyor ve ikna edici metin tabanlı içerik üretiyorlar. Şimdi, AI araçları geliştikçe, AI tarafından oluşturulan görüntü ve videoların kullanımı arttı.
Birkaç hafta önce, ByteDance, en son AI video aracını, OmniHuman-1’i tanıttı. Bu araç, piyasadaki en gerçekçi deepfake’leri oluşturabilme yeteneğine sahip. Bu arada, daha fazla AI şirketi benzer teknolojiler geliştiriyor. Bu araçların dolandırıcılık için de kullanılması sadece zaman meselesi gibi görünüyor.
Bu teknolojiler “iyi niyetle” ve hatta dolandırıcılığın yükselişini engellemek için kullanılabilir— örneğin O2’nin AI ‘Büyükanne’ Daisy’i, gerçek zamanlı aramalarda dolandırıcılarla meşgul olmak ve onları gerçek kurbanlardan uzaklaştırmak için tasarlandı— ancak kötüye kullanımlarının sonuçları ölçülemez gibi görünüyor.
Wizcase’de, “Scam-Yourself Attacks”da %614’lük bir artış olduğunu yeni rapor ettik, bu raporda, hacker’ların sahte içeriği “daha gerçekçi” görünmesi için deepfake teknolojilerini nasıl kullandıklarını ve sosyal medya şirketlerinin, özellikle de Meta’nın domuz kesme dolandırıcılıklarına nasıl müdahale etmek zorunda kaldığını belirttik, çünkü birçok tehdit unsuru bu platformları kullanıyor. Araştırmada, Meta, birçok dolandırıcılığın flört uygulamalarında başladığını belirtti, bu da romantik aşkın tarihsel olarak ve günümüzde en yaygın yemlerden biri olduğunu kanıtlıyor.
Aşk: Güçlü Bir Yem
Siber suçlular sadece gelişmiş yapay zekayı anlama ve kullanma konusunda yetenekli değiller, aynı zamanda insan zekasını da derinden anlıyorlar. Tehdit unsurları, güven inşa etme ve taleplerini tam doğru anda yapma konusunda zaafları nasıl belirleyeceğini biliyor.
2018 yılında PhD Monica T. Whitty tarafından yayınlanan Beni Seviyor Musun? Aşk Dolandırıcılığı Mağdurlarının Psikolojik Özellikleri adlı çalışma, uluslararası suç örgütlerinin yıllardır – hatta internetten önce bile – romantik aşk dolandırıcılıkları gerçekleştirdiğini ve orta yaşlı, iyi eğitimli kadınların bu tür dolandırıcılıklara düşme olasılığının yüksek olduğunu – tıpkı Anne gibi – açıklıyor.
Peki, bu çalışmadan sekiz yıl sonra, bilim kurgu gibi teknolojiyle ne bekleyebiliriz? Muhtemelen hepimiz düşündüğümüzden daha savunmasızız.
“Bu tür dolandırıcılığın kurbanları genellikle anlam arayan, duygusal olarak hassas olan insanlardır,” diye yazdı Quebec Üniversitesi, Montreal’deki (UQAM) Yardımcı Profesör Annie Lecompte, The Conversation’da yakın zamanda yayınlanan bir makalede. “Alay edilmesine ve yanlış anlaşılmasına rağmen, aşk dolandırıcılığı, kurbanların güvenini, duygularını ve hassasiyetlerini istismar eden karmaşık psikolojik mekanizmalara dayanır.”
Kırık Bir Kalp, Boş Bir Cüzdan
Liu — yakın zamanda bir AI destekli dolandırıcılıkta yaklaşık 28.000 dolar, 200.000 yuan kaybeden Çinli adamın soyadı — AI sevgilisinin gerçek olduğuna tamamen inanıyordu, çünkü kişiselleştirilmiş fotoğraflar ve hatta videolar görüyordu. Dolandırıcılarına karşı giderek daha güçlü bir duygusal bağ kuruyordu…
Raporlarda bağlamla ilgili daha fazla ayrıntı vermedi ancak başka bir mağdur, 77 yaşındaki Nikki MacLeod, ayrıntıları verdi. O da gerçek bir ilişkide olduğunu düşündü ve AI kız arkadaşına banka transferleri, PayPal ve hediye kartları aracılığıyla yaklaşık $22.000 değerinde 17.000 sterlin gönderdi.
“Ben aptal bir insan değilim ancak o beni, gerçek bir kişi olduğuna ve hayatımızı birlikte geçireceğimize ikna edebildi,” dedi MacLeod BBC‘ye.
MacLeod, grup sohbetinde Alla Morgan’la tanıştığında yalnız ve üzgün hissediyordu. Bir süre sonra MacLeod canlı bir video istedi, ancak Morgan bunun mümkün olmadığını çünkü bir petrol kuyusu platformunda çalıştığını söyledi. MacLeod şüphelenmeye başladığında, Morgan gerçekçi videolar göndermeye başladı. “Bana bir video gönderdi ve ‘Merhaba Nikki, ben bir dolandırıcı değilim, petrol platformumdayım’ dedi ve ben tamamen inandım,” diye açıkladı MacLeod. İçerik BBC’nin web sitesinde bulunabilir ve MacLeod’un neden gerçek olduğuna inandığı kolayca anlaşılabilir – bu, yüksek kaliteli bir deepfake.
BBC, Abertay Üniversitesi’nde siber güvenlik ve insan-bilgisayar etkileşimi üzerine uzman Dr. Lynsay Shepherd’dan MacLeod’un aldığı fotoğrafları ve videoları analiz etmesini istedi. “İlk bakışta gerçek gibi görünüyor, neye bakacağınızı bilmiyorsanız, ancak gözlere bakarsanız – göz hareketleri tam olarak doğru değil,” dedi Dr. Shepherd.
“Belgeler gerçek gibi görünüyordu, videolar gerçek gibi görünüyordu, banka gerçek gibi görünüyordu,” dedi MacLeod. “Yapay zekanın gelişiyle, her şey sahte olabilir.”
Yorum bırakın
Vazgeç