Brad Pitt, Jennifer Aniston gibi Hollywood yıldızları bir anda kabusunuz olabilir: Deepfake tuzağına dikkat
Ünlülerin görüntüleriyle kurulan sahte aşk hikâyeleri ve reklam kampanyaları artık sadece magazin malzemesi değil kariyerleri ve birikimleri yok eden, duyguları hedef alan organize dolandırıcılığın yeni aracı. Jennifer Aniston ve Brad Pitt vakaları, AI destekli sahtekârlığın can yakıcı yüzünü gösteriyor.

Toygun ATİLLA
Sosyal medyanın yaygınlaşması ve yapay zekâ destekli görüntü-üretim araçlarının ucuzlayıp erişilebilir hâle gelmesi; dolandırıcıların elini güçlendirdi. Artık yayınladığı birkaç fotoğraftan veya videodan yola çıkarak bir ünlünün “gerçek” görüntüsünü, mesajını veya sesi taklit etmek mümkün. Son aylarda Jennifer Aniston ve Brad Pitt gibi ünlü isimlerin görüntüleri kullanılarak yapılan romance-type (duygusal) ve yatırım/tanıtım amaçlı dolandırıcılık vakaları dünya çapında çoğaldı.
DOLANDIRICILIK VAKALARI
İngiltere’de bir erkek, kendisine “Jennifer Aniston” olduğu söylenen kişilerce gerçekleştirilen deepfake videolar ve sahte kimliklerle kandırıldı; binlerce sterlin zarar ettiği haber oldu.
Fransa’da yayınlanan bir dosyada, “Brad Pitt” kılığına giren dolandırıcıların neredeyse 700.000 sterlin topladığı, uzun süreli bir manipülasyon sonrası mağdurun ciddi maddi ve psikolojik kayıplar yaşadığı bildirildi. Olay, AI-üretimli fotoğraf ve videoların romantik güven oluşturup para talep etmek amacıyla nasıl kullanıldığını gözler önüne serdi.
DOLANDIRICILARIN ÇALIŞMA YÖNTEMLERİ
Hedef seçimi: Popüler ünlüler, kamuoyunda sempati/şaşkınlık doğuran figürler olduğu için tercih ediliyor.
1.Görüntü ve ses üretimi: Kamuya açık fotoğraf ve videolardan yararlanılarak AI modelleriyle kısa sürede yüksek inandırıcılığa sahip video/audio klipler üretiliyor.
2.İletişim inşası: Kurbanla duygusal bir bağ kuruluyor; zamanla mesajlaşmalar, sesli aramalar, hatta videolu “özel görüşmeler” gösteriliyor.
3.Para isteme / yönlendirme: Tıbbi masraflar, vergi/mahkeme ödemeleri, gizli yatırım fırsatları gibi öykülerle para talep ediliyor.
4.İzlerin silinmesi: İletişim kanalları değiştirilip yönlendiriliyor; mağdur itimat mekanizmaları çalıştığı için şüphe geç oluşuyor. Bu model, yüksek duygusal yatırım gerektiren “romance scam”lerin AI ile güçlendirilmiş hâlidir.
MİLYONLARCA DOLARLIK VURGUNLAR
Deepfake içeriklerin sayısı ve buna bağlı dolandırıcılık vakaları son yıllarda hızla arttı. 2025 başında yapılan araştırmalar, ünlülere yönelik deepfake saldırılarında ve genel deepfake olaylarında ciddi artış olduğunu gösteriyor; çeyrek dönemlerde yüzlerce vaka raporlanıyor ve kayıplar milyon dolarları bulabiliyor. Uzmanlar, bu teknolojinin suç ekosisteminde kullanımının yakın zamanda daha da yaygınlaşacağını uyarıyor.
TEHLİKENİN FARKINDA MIYIZ?
Birçok ülke hâlâ bu yeni tür sahtekârlığı kapsayan spesifik düzenlemeler geliştirmeye çalışıyor. Mevcut ceza yasaları dolandırıcılığı, sahtecilik ve kişilik hakları ihlallerini kapsayabilse de; AI-destekli deepfake’lerin tespit edilmesi, kanıtlanması ve delil sürecinin yürütülmesi pratikte zorluklar çıkarıyor. Uzmanlar teknoloji firmaları, sosyal ağlar ve adli merciler arasında daha hızlı protokoller oluşturulmasını öneriyor. Dünya Ekonomik Forumu ve hukuk çevreleri de tehlikenin ciddiyetine dikkat çekiyor.
MAĞDURLARIN KAYBI
Bu dolandırıcılığın en acı yönü yalnızca maddi değil. Romantik bağ kurulmuş mağdurlar; utanç, izolasyon, depresyon ve sosyal itibar kaybı yaşıyor. Yüzbinlerce dolar bazı vakalarda milyonlara varan kayıplar bildirildi. Rehabilitasyon, psikolojik destek ve hukuki süreç mağdurlar için uzun soluklu sürece dönüşüyor.
KORUNMA YÖNTEMLERİ
1-Şüpheli duygusal ilişkiler: Hemen resmi kanallara taşıyın. Ünlü olduğunu iddia eden birisi ile maddi talepler olursa durun, doğrulama isteyin.
2.İki faktörlü kimlik doğrulama kullanın: Finansal transferlerinizi ses, video veya “acımasız aşk” vaat eden kanallarda gerçekleştirmeyin.
3.Medya / marka ekipleri: Ürün tanıtımı için ünlü iş birliklerini doğrulamadan kabul etmeyin; talep gelen içeriklerin orijinalliğini teknik doğrulama araçlarıyla kontrol ettirin.
4.Hukuki adım: Şüpheli bir deepfake ile karşılaşırsanız ekran görüntüsü, URL, zaman damgası gibi delilleri saklayın ve siber suç birimlerine başvurun.
5.Şirketler için: Marka ve yönetici görüntülerinin kötüye kullanımını izlemek için izleme servisleri (brand monitoring), derin sahte içerik tespit çözümleri ve acil müdahale planları oluşturun.
NE YAPILMALI?
Platform sorumluluğu: Sosyal ağlar, kısa doğrulama mekanizmaları geliştirip sahte içerikleri hızla kaldırmalı; iddiaların doğruluğunu teyit eden “trusted flagging” ağları kurulmalı.
Eğitim: Kamu spotları, yaşlı ve dijital olarak daha az savunmasız gruplar için özel bilinçlendirme kampanyaları şart.
Teknoloji yatırımı: Derin sahte içerik tespiti, watermarking, blockchain-tabanlı içerik doğrulama çözümlerine yatırım hızlandırılmalı.
Kamusal politika yapıcıları ile özel sektörün iş birliği, mağdurları korumak ve suç gelirlerini izole etmek için hayati önem taşıyor.
YILDIZ MASKELİ DOLANDIRICILIK
Jennifer Aniston, Brad Pitt gibi isimlerin yüzü ve sesi, internette yalnızca magazin haberleri üretmiyor; dolandırıcılığın aracı hâline geliyor. Bu vakalar bize şunu hatırlatıyor: Teknoloji nötrdir; onu kim nasıl kullanırsa o amaç hâline gelir. Hem bireyler hem kurumlar özellikle medya ve finans kurumları hazırlıklı olmalı, erken uyarı sistemleri kurmalı ve mağdur düşmemek için temkinli davranmalı.
patronlardunyasi.com