Yapay zeka ile ünlü tuzağına dikkat: Deepfake nasıl anlaşılır?
Dolandırıcıların yeni silahı yapay zeka oldu. Ünlü isimlerin ve devlet büyüklerinin sesini ve görüntüsünü birebir kopyalayan "Deepfake" videolar, vatandaşların birikimlerini tehdit ediyor.
Teknolojinin gelişimiyle birlikte dolandırıcılık yöntemleri de boyut değiştirdi. Son dönemde artış gösteren yapay zeka destekli dolandırıcılık vakaları, gerçeğinden ayırt edilmesi neredeyse imkânsız hale gelen videolarla binlerce kişiyi hedef alıyor. Özellikle ünlü isimlerin, siyasi liderlerin ve güvenilir yüzlerin ses ve görüntülerini kopyalayan siber dolandırıcılar, sosyal medyada yayınladıkları sahte yatırım reklamlarıyla büyük vurgunlar yapıyor. Türkiye'de bu tuzağın en acı ve güncel örneklerinden biri Sakarya’da yaşandı. 56 yaşındaki bir vatandaş, Cumhurbaşkanı Recep Tayyip Erdoğan’ın yapay zeka ile üretilmiş görüntü ve sesine inanarak girdiği sahte yatırım reklamı yüzünden tam 2,5 milyon lirasını dolandırıcılara kaptırdı. Emniyet güçlerinin Düzce merkezli 5 ilde düzenlediği operasyon ise tehlikenin büyüklüğünü gözler önüne serdi; ünlüleri taklit ederek sahte yatırım reklamı hazırlayan şüphelilerin hesaplarında 25 milyon liralık şüpheli işlem tespit edildi.
BRAD PITT SANDI, 800 BİN EURO GÖNDERDİ
Yapay zeka tuzağı sadece Türkiye ile sınırlı kalmıyor; küresel çapta da büyük mağduriyetlere yol açıyor. Fransa’da yaşanan ilginç bir olay, yapay zekanın ikna kabiliyetinin sınırlarını zorladığını kanıtladı. Bir kadın mimar, internet üzerinden tanıştığı ve yapay zeka ile üretilen görüntüler sayesinde ünlü Hollywood yıldızı Brad Pitt ile konuştuğunu sandığı kişiye tam 800 bin euro gönderdi. Dolandırıcıların teknolojiyi kullanarak kurbanlarında yarattığı "güven" duygusu, servet değerinde kayıplara neden oluyor.
Peki, bu kusursuz görünen dijital tuzaklar nasıl anlaşılır? Güvenlik uzmanı Perry Carpenter’a göre teknik detaylardan önce "duygusal manipülasyona" dikkat etmek hayati önem taşıyor. Eğer bir video veya arama sizde aniden korku, panik, aciliyet veya aşırı otorite hissi uyandırıyorsa, bu durum birer uyarı sinyali olarak görülmeli. Carpenter, bu duygular devreye girdiğinde vatandaşların bilinçli bir şekilde yavaşlaması ve içeriği sorgulaması gerektiğini belirtiyor. Teknik tarafta ise yapay zekanın henüz tam olarak taklit edemediği "biyolojik" kusurlar devreye giriyor. Uzmanlar, deepfake videolarda kişilerin genellikle doğal akışta göz kırpmakta zorlandığını belirtiyor. Beklenmedik şekilde uzun süre açık kalan gözler, duyguyla uyuşmayan mimikler, robotik ve kendini tekrar eden ses tonları videonun sahte olduğunu gösteren en güçlü kanıtlar arasında yer alıyor.
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.