Teknoloji

Deepfake videolarının sayısı her yıl %900 artıyor!

Dünya Ekonomik Forumu’na (WEF) göre, çevrimiçi derin sahtekarlıkların sayısı her yıl %900 artıyor. Birçok değerli deepfake dolandırıcılığı, taciz, intikam ve kripto dolandırıcılığı raporlarının yanı sıra haber manşetlerinde yer aldı. Kaspersky araştırmacıları, kullanıcıların dikkat etmesi gereken derin sahtekarlıkları kullanan ilk üç dolandırıcılık planına ışık tutuyor.

Yapay sınır ağlarının, derin öğrenmenin ve dolayısıyla derin sahte aldatma tekniklerinin kullanılması, dünyanın her yerindeki kullanıcıların yüzlerini veya vücutlarını dijital olarak değiştirmelerine olanak tanır, böylece rastgele bir kişinin diğerine benzediği gerçekçi manzara, görüntü ve ses gereçleri üretir. Bu manipüle edilmiş görüntüler ve görüntüler genellikle yanlış bilgi ve diğer kötü niyetli amaçları yaymak için kullanılır.

finansal dolandırıcılık

Deepfakes, kurbanları tuzağa düşürmek için ünlüleri taklit etmek için suçlular tarafından oluşturulan görüntüleri kullanan sosyal mühendislik tekniklerinin konusu olabilir. Örneğin, Elon Musk’ın şüpheli bir kripto para birimi yatırım planından yüksek getiri vaat ettiği yapay olarak oluşturulmuş bir videosu geçen yıl hızla yayıldı ve kullanıcıların para kaybetmesine neden oldu. Dolandırıcılar, ünlülerin resimlerini kullanarak bunun gibi sahte görüntüler oluşturuyor, eski görüntüleri gün yüzüne çıkarıyor ve sosyal medya platformlarında canlı yayınlar başlatarak kendilerine gönderilen rastgele bir kripto para ödemesini ikiye katlama sözü veriyor.

pornografik derin sahte

Deepfake’in başka bir kullanımı, bir kişinin mahremiyetini ihlal etmektir. Deepfake görüntüler, bir kişinin yüzünü pornografik bir görüntünün üzerine bindirerek oluşturulabilir, bu da büyük kayıplara ve karamsarlığa neden olur. Bir vakada, müstehcen sahnelerde pornografik aktrislerin vücutlarının üzerine bindirilmiş bazı ünlülerin yüzlerinin derin sahte görüntüleri internette ortaya çıktı. Sonuç olarak, bu tür olaylarda baskın mağdurlarının prestiji zedelenmekte ve hakları ihlal edilmektedir.

iş riskleri

Çoğu zaman, şirket yöneticilerinden gasp, şantaj ve endüstriyel casusluk gibi suçlar için işletmeleri hedef almak için derin sahtekarlıklar kullanılır. Örneğin, siber suçlular derin sahte ses kullanarak BAE’deki bir banka müdürünü kandırmayı ve 35 milyon dolar çalmayı başardılar. Söz konusu vakada, inandırıcı bir deepfake oluşturmak için patronunun sesinin yalnızca küçük bir kaydının yakalanması yeterliydi. Başka bir durumda, dolandırıcılar en büyük kripto para platformu Binance’i kandırmaya çalıştı. Binance yöneticisi “Teşekkürler!” dedi. hiç katılmadığı bir Zoom toplantısı hakkında. Bildirimleri almaya başlayınca şaşırdı. Saldırganlar, yöneticinin herkese açık görüntüleriyle bir deepfake oluşturmayı ve çevrimiçi bir toplantıda yöneticinin adıyla konuşarak bunu uygulamayı başardı.

FBI insan kaynakları yöneticilerini uyardı!

Genel olarak, dezenformasyon ve kamu manipülasyonu, şantaj ve casusluk, derin sahtekarlık kullanan dolandırıcıların hırsları arasındadır. Bir FBI uyarısına göre insan kaynakları yöneticileri, uzaktan çalışma için başvuran adayların derin sahtekarlık kullanması konusunda aslında tetikte. Binance örneğinde, saldırganlar derin sahtekarlıklar oluşturmak için internetten gerçek kişilerin resimlerini kullandılar ve hatta bu kişilerin fotoğraflarını özgeçmişlerine eklediler. Bu formda İK yöneticilerini kandırmayı başarır ve ardından bir teklif alırlarsa, akabinde patron verilerini çalabilirler.

Deepfake’ler, büyük bir bütçe gerektiren ve sayısı giderek artan pahalı bir dolandırıcılık türü olmaya devam ediyor. Kaspersky tarafından daha önce yapılan bir çalışma, karanlık ağdaki derin sahtekarlıkların maliyetini ortaya koyuyor. Sıradan bir kullanıcı internette bir yazılım bulur ve onu deepfake yapmaya çalışırsa, sonuç gerçekçi olmayacaktır ve hileli olduğu aşikardır. Çok az insan düşük kaliteli bir derin sahtekarlığa inanır. Yüz ifadesindeki gecikmeleri veya bulanık çene şeklini hemen fark edebilir.

Bu nedenle, siber hatalar bir saldırıya hazırlanırken büyük miktarda veri gerektirir. Kimliğine bürünmek istedikleri kişinin fotoğrafları, görüntüleri ve sesleri gibi. Farklı açılar, ışık parlaklığı, yüz ifadeleri, hepsi nihai kalitede büyük rol oynuyor. Sonucun gerçekçi olması için gerçek bir bilgisayarın gücü ve yazılımı gereklidir. Tüm bunlar büyük miktarda kaynak gerektirir ve yalnızca az sayıda siber bilgisayar korsanının bu kaynağa erişimi vardır. Bu nedenle, deepfake, sunabileceği tehlikelere rağmen hala son derece nadir bir tehdit olmaya devam ediyor ve yalnızca az sayıda alıcı bunu karşılayabiliyor. Sonuç olarak, bir dakikalık derin sahtekarlık 20.000 dolardan başlıyor.

“Bazen itibar risklerinin çok ciddi sonuçları olabilir”

Kaspersky’de Kıdemli Güvenlik Uzmanı Dmitry Anikin, diyor: “Deepfake’in işletmeler için oluşturduğu en büyük tehditlerden biri her zaman kurumsal bilgilerin çalınması değildir. Bazen prestij risklerinin korkunç sonuçları olabilir. Yöneticinizin hassas bahisler hakkında (görünüşe göre) kutuplaştırıcı açıklamalar yaptığı bir resmin yayınlandığını hayal edin. Şirket için, bu hisse fiyatlarında hızlı bir düşüşe yol açabilir.Ancak böyle bir tehdidin riskleri son derece yüksek olsa da, bu durumda bir deepfake oluşturmanın maliyeti ve çok az sayıda saldırganın bunu yapabilmesi nedeniyle flood edilme şansınız son derece düşüktür. yüksek kaliteli bir deepfake oluşturun.  Bu konuda yapabileceğiniz şey, deepfake görüntülerin temel özelliklerinin farkında olmak ve size gelen sesli mesajlara ve görüntülere şüpheyle yaklaşmak. Ayrıca, çalışanlarınızın deepfake’in ne olduğunu ve onu nasıl tespit edebileceklerini anladığından emin olun. Örneğin, sarsıntılı hareketler, cilt tonunda kaymalar, garip göz kırpma veya hiç göz kırpmama gibi işaretler belirleyici olacaktır.”

Darknet kaynaklarının sürekli olarak izlenmesi, derin sahtekarlık endüstrisi hakkında değerli içgörüler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son trendlerini ve faaliyetlerini takip etmelerini sağlar. Araştırmacılar, darknet’i izleyerek derin sahtekarlıkların oluşturulması ve dağıtılması için kullanılan yeni araçları, hizmetleri ve pazar yerlerini ortaya çıkarabilir. Bu tür izleme, derin sahte araştırmaların kritik bir bileşenidir ve gelişen tehdit ortamına ilişkin anlayışımızı geliştirmemize yardımcı olur. Kaspersky Digital Footprint Intelligence hizmeti, derin sahtekarlıkla ilgili tehditler söz konusu olduğunda müşterilerinin bir adım önde olmasına yardımcı olmak için bu tür izlemeyi içerir.

Deepfake sektörü hakkında daha fazla bilgiyi Kaspersky Daily’de bulabilirsiniz.

Kendinizi derin sahtekarlıklarla ilgili tehditlerden korumak için Kaspersky şunları önerir:

  • Kuruluşunuzdaki siber güvenlik uygulamalarını yalnızca yazılım açısından değil, aynı zamanda gelişmiş BT yetenekleri açısından da kontrol edin. Mevcut tehdit ortamından kaçınmak için Kaspersky Threat Intelligence’ı kullanın.
  • Kurumsal “insan güvenlik duvarını” güçlendirin. Çalışanlarınızın deepfake’lerin ne olduğunu, nasıl çalıştıklarını ve karşılaşabilecekleri zorlukları anladığından emin olun. Çalışanlara bir derin sahtekarlığın nasıl tespit edileceğini öğretmek için her zaman farkındalık ve eğitim egzersizleri yapın. Kaspersky Otomatik Güvenlik Farkındalık Platformu, çalışanların en son tehditler hakkında güncel bilgilere sahip olmalarına yardımcı olur ve dijital okuryazarlık düzeylerini artırır.
  • Kaliteli haber kaynaklarına başvurun. Cehalet ve bilgi eksikliği, derin sahtekarlıkların yayılmasında önemli bir faktör olmaya devam ediyor.
  • “Güven ama doğrula” gibi sağlam protokolleri etkinleştirin. Sesli mesajlara ve görüntülere şüpheyle yaklaşmak, insanların asla kandırılmayacağını garanti etmez, ancak yaygın tuzakların çoğundan kaçınmaya yardımcı olabilir.
  • Deepfake kurbanı olmamak için dikkat edilmesi gereken görüntülerin temel özelliklerinin farkında olun. Sarsıntılı hareket, bir kareden diğerine ışık kayması, ten renginde değişiklikler, garip göz kırpmalar veya hiç göz kırpmama, konuşmayla uyumlu olmayan dudaklar, manzaradaki dijital eserler, kasıtlı olarak düşük kaliteli kodlanmış ve yetersiz aydınlatılmış görüntüler gibi.

 

Kaynak: (BYZHA) Beyaz Haber Ajansı

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu