Dolandırıcıların son yöntemi yapay zeka kullanılarak hazırlanan sahte ünlü videoları. Ünlü isimlerin görüntülerini ve seslerini teknolojiyi kullanarak değiştiren dolandırıcılar, yatırım tavsiyesi yalanıyla kandırıyorlar.
Daha önce Esra Erol ve ekonomist Özgür Demirtaş gibi ünlü isimlerin sahte videoları ile dolandırıcılık yapanların son kurbanı Defne Samyeli oldu. Samyeli, sahte görüntüleri kullanılarak hazırlanan video ile yatırım tavsiyesi adı altında dolandırıcılık yapıldığını ileri sürdü.
"HELE İŞİN İÇİNDE PARA VARSA"
Sosyal medya hesabından takipçilerini uyaran Samyeli, "İşin içinde para varsa misliyle dikkatli olun." dedi.
Sahte video ile birçok kişinin dolandırıldığını söyleyen Samyeli, "Bu videonun tamamen uydurma bir montaj işi olduğu ilk bakışta anlaşılsa da anlıyorum ki birçok vatandaşımızın dolandırılmasına neden olmuş. İnsanları herhangi bir yatırıma yönlendirecek bir yayın yapmadım, bu gibi sponsorlu yayınları gördüğü zaman demek ki insanların misliyle dikkatli olması gerekiyor, hele işin içinde para varsa." uyarısında bulundu.
YASAL SÜREÇ BAŞLATACAK
Dolandırıcılar hakkında yasal işlem başlatacağını söyleyen Samyeli, "Sadece ben değil, en güvendiğiniz başka kim varsa bu devirde ‘paranızı şuraya yatırın’ şeklinde bir video gördüğünüzde yüzlerce kez sorgulamanızı öneririm. Yüzümü ve YouTube kanalımdaki yayınlarımı kullanarak vatandaşları dolandıran, bu videoları yayan, yayınlayan sorumlular hakkında yasal süreci başlatacağımı bu vesileyle duyurmak isterim." dedi.
Deepfake (Derin sahtecilik):
Deepfake, gerçek bir kişinin yüzünün, başka bir kişinin yüzünün üzerine yerleştirildiği sahte bir video veya görüntüdür. Deepfake, genellikle ünlüler, politikacılar veya diğer tanınmış kişileri hedef alan dolandırıcılık yönteminde kullanılır.