Yapay zeka teknolojisinin gelişmesiyle birlikte dolandırıcılık yöntemleri de boyut değiştirdi. Ünlü isimlerin ve siyasilerin sesini ve görüntüsünü birebir taklit eden “Deepfake” teknolojisi, vatandaşları milyonlarca liralık zarara uğratıyor.
Uzmanlar, gerçeğinden ayırt etmesi giderek zorlaşan bu sahte içeriklere karşı en güvenli yöntemin “şüpheli durumlarda iletişimi derhal kesmek” olduğunu vurguluyor.
Brad Pitt’ten Erdoğan’a: İnanılmaz Dolandırıcılık Hikayeleri
Son dönemde Türkiye’de ve dünyada yaşanan olaylar tehlikenin boyutunu gözler önüne seriyor:
-
Sakarya: 56 yaşındaki bir vatandaş, Cumhurbaşkanı Erdoğan’ın yapay zeka ile üretilmiş sahte ses ve görüntüsüne inanarak tam 2,5 milyon TL dolandırıldı.
-
Fransa: Bir mimar, yapay zeka ile üretilen görüntülerle karşısındakini Brad Pitt sandı ve dolandırıcıya 800 bin Euro kaptırdı.
-
Düzce: Beş ilde düzenlenen operasyonda, ünlüleri taklit ederek sahte yatırım reklamı hazırlayan şebekenin hesaplarında 25 milyon TL’lik işlem hacmi tespit edildi.
Deepfake Videosu Nasıl Anlaşılır?
Güvenlik uzmanı Perry Carpenter ve diğer yetkililere göre, sahte videoları tespit etmek için teknik detaylardan çok duygusal ve fiziksel ipuçlarına odaklanmak gerekiyor:
-
Duygusal Baskı ve Aciliyet: Eğer bir arama veya video sizde korku, panik, otorite korkusu veya aşırı aciliyet hissi uyandırıyorsa bu bir uyarı sinyalidir. Böyle bir durumda yavaşlayın ve sorgulayın.
-
Göz Kırpma Sorunu: Yapay zeka, doğal göz kırpma hareketini taklit etmekte zorlanabiliyor. Gözlerin beklenmedik şekilde uzun süre açık kalması veya duygusal ifadeyle uyumsuz hareket etmesi en büyük açık olabilir.
-
Robotik Ses ve Ritim: Kişinin ses tonunda robotikleşme, kendini tekrar eden ifadeler veya vücut hareketleri ile konuşma ritmi arasındaki uyumsuzluklar videonun sahte olduğunu gösterebilir.




