Deepfake videolarının sayısı her yıl %900 oranında artıyor!

PAYLAŞ
Deepfake videolarının sayısı her yıl %900 oranında artıyor!
  • 0
  • 0
  • 8 dakika da oku
  • +
  • -

Dünya Ekonomik Forumu ’na WEF göre çevrimiçi deepfake videoların rakamı her sene %900 oranını çoğalıyor. Taciz, intikam ve kripto dolandırıcılığı ile alakalı raporlarla beraber bir hayli ehemmiyetli deepfake dolandırıcılık olayı haber manşetlerine çıktı. Kaspersky analistleri, kullanıcıların dikkat etmesi gereken ve deepfake kullanan ilk üç dolandırıcılık tasarısına ışık yakalıyor. 

Suni asap ağlarının, derin bilmenin ve dolayısıyla deepfake kandırma tekniklerinin kullanımı, dünyanın dört bir yanındaki kullanıcıların suratlarını veya bedenlerini dijital olarak değiştirmeye, böylece rastgele birinin başka biri gibi göründüğü asılcı görüntü, video ve ses materyallerini üretmeye imkân sağlıyor. Bu manipüle edilmiş video ve görüntüler sıklıkla yanlış bilgi yaymak ve diğer makûs niyetli emellerle kullanılıyor.

Finansal dolandırıcılık

Deepfake ’ler, kabahatlilerin kurbanları tuzağa sürüklemek emeliyle şöhretlileri taklit etmek için geliştirdikleri görüntülerin kullanıldığı sosyal mühendislik tekniklerine mevzu olabiliyor. Misalin Elon Musk ’ın kuşkulu bir kripto para yatırım tasarısından yüksek getiri taahhüt eden suni olarak oluşturulmuş bir videosu, geçen sene süratle dağılarak kullanıcıların para kaybetmelerine neden oldu. Dolandırıcılar bunun gibi sahte videolar yaratmak için namlıların görüntülerini kullanıyor, daha önceki videoları bir araya getiriyor ve sosyal medya platformlarında canlı yayınlar başlatarak kendilerine sevk edilen rastgele bir kripto para ödemesini iki katına çıkarma sözü veriyor.

Pornografik deepfake

Deepfake ’lerin bir başka kullanım alanı da ferdin mahremiyetini ihlal etmek. Deepfake videolar, bir bireyin suratının pornografik bir video üzerine yerleştirilmesiyle oluşturulabiliyor ve büyük hasara ve kasvete neden olabiliyor. Bir hadisede, bazı namlıların suratlarının yakışıksız sahnelerdeki pornografik oyuncuların bedenlerine bindirildiği deepfake videolarının internette dağıldığı ortaya çıktı. Netice olarak, bu cins hadiselerde atak mağdurlarının haysiyetleri yaralanıyor ve hakları ihlal ediliyor.

İşe dair tehlikeler

Çoğu zaman deepfake ’ler işletme idareyicilerinden haraç alma, şantaj ve endüstriyel ajanlık gibi kabahatler için şirketleri hedef almak üzere kullanılıyor. Misalin, siber kabahatliler bir ses deepfake ’i kullanarak Birleşik Arap Emirlikleri ’deki bir banka müdürünü aldatmayı ve 35 milyon dolar çalmayı muvaffak olmuştu. Söz mevzusu hadisede ikna edici bir deepfake oluşturmak için işvereninin sesinin yalnızca minik bir kaydının ele geçirilmesi yeterliydi. Bir başka hadisede, dolandırıcılar en büyük kripto para platformu Binance ’i aldatmaya çalıştı. Binance idareyicisi, hiç katılmadığı bir Zoom buluşması hakkında “Teşekkür ederim!” iletileri almaya başladığında donakaldı. Saldırganlar, idareyicinin herkese sarih görüntüleriyle bir deepfake oluşturmayı ve bunu çevrimiçi bir buluşmada idareyici ismine konuşarak uygulamayı muvaffak oldular.

FBI, insan kaynakları idareyicilerini uyarıyor!

Genel olarak, deepfake ’leri kullanan dolandırıcıların emelleri arasında dezenformasyon ve kamuoyunu manipüle etme, şantaj ve ajanlık yer alıyor. Bir FBI ihtarına göre, insan kaynakları idareyicileri uzaktan çalışmak için müracaat eten adaylar tarafından deepfake kullanımı mevzusunda zati tetikte bekliyor. Binance hadisesinde, saldırganlar deepfake oluşturmak için internetten reel bireylerin görüntüleri kullandılar ve hatta bu bireylerin resimlerini özgeçmişlere ilave ettiler. İnsan kaynakları idareyicilerini bu biçimde aldatmayı muvaffak olurlarsa ve sonrasında bir öneri alırlarsa, devamında patron bilgilerini çalabiliyorlar.

Deepfake ’ler büyük bir bütçe gerektiren ve rakamları giderek artan pahalı bir dolandırıcılık cinsi olmaya devam ediyor. Kaspersky tarafından daha evvel yapılan bir araştırma, darknet üzerindeki deepfake ’lerin maliyetini ortaya koyuyor. Sıradan bir kullanıcı internette bir yazılım bulur ve bir deepfake yapmaya çalışırsa, netice asılcı olmayacak ve sahtekarlık belirgin oluyor. Çok az insan düşük nitelikli bir deepfake ’e inanıyor. Surat ifadesindeki gecikmeleri veya çene biçimindeki fluluğu hemen fark edebiliyor.

Bu sebeple, siber kabahatliler bir atağa hazırlanırken büyük ölçüde bilgiye lüzum dinliyor. Taklit etmek istedikleri bireyin resimleri, videoları ve sesleri gibi. Değişik açılar, ışık parlaklığı, surat ifadeleri, hepsi son nitelikte büyük rol oynuyor. Neticenin asılcı olması için aktüel bir bilgisayarın eforu ve yazılımı gerekiyor. Tüm bunlar büyük ölçüde kaynak gerektiriyor ve bu kaynağa sadece az rakamda siber kabahatli ulaşabiliyor. Bu sebeple deepfake sağlayabileceği risklere karşın hala son derece ender bir tehdit olmaya devam ediyor ve sadece az rakamda akdikeni bunu karşılayabiliyor. Sonuç olarak bir dakikalık bir “deepfake ’in maliyeti 20 bin Amerika Birleşik Devletleri dolarından başlıyor.

“Bazen haysiyet tehlikeleri çok ciddi neticeler doğurabilir”

Kaspersky ’de Kıdemli Güvenlik Uzmanı Dmitry Anikin, şunları söylüyor: “Deepfake ’in firmalar için oluşturduğu en ciddi tehditlerden biri her zaman müessesesel bilgilerin çalınması değildir. Bazen haysiyet tehlikeleri çok ciddi neticeler doğurabilir. İdareyicinizin görünüşe göre duyarlı mevzularda kutuplaştırıcı açıklamalar yaptığı bir videonun yayınlandığını düşünün. İşletme için bu gidişat pay maliyetlerinde süratli bir düşüşe yol açabilir. Ancak, böyle bir tehdidin tehlikeleri son derece yüksek olmasına karşın, deepfake oluşturmanın maliyeti ve çok az saldırganın yüksek nitelikli bir deepfake oluşturabilmesi sebebiyle bu biçimde atağa uğrama ünsünüz son derece düşüktür. Bu mevzuda yapabileceğiniz şey, deepfake videoların temel özelliklerinin farkında olmak ve size gelen sesli ileti ve videolara kuşkuyla yanaşmaktır. Ayrıca, çalışanlarınızın deepfake ’in ne olduğunu ve nasıl fark edebileceklerini kavradıklarından emin olun. Misalin sarsıntılı hareket, cilt tonunda kaymalar, enteresan göz kırpma veya hiç göz kırpmama gibi işaretler tanımlayıcı olacaktır.”

Darknet kaynaklarının aralıksız olarak izlenmesi, deepfake sanayisi hakkında bedelli bilgiler sağlayarak analistlerin bu alandaki tehdit oyuncularının en son meyillerini ve faaliyetlerini takip etmelerine imkân sağlıyor. Analistler darknet ’i izleyerek deepfake ’lerin oluşturulması ve dağıtımı için kullanılan yeni vasıtaları, hizmetleri ve pazar yerlerini ortaya çıkarabiliyor. Bu cins bir izleme, deepfake araştırmasının kritik bir bileşenini oluşturuyor ve büyüyen tehdit etrafına ait kavrayışımızı geliştirmemize dayanakçı oluyor. Kaspersky Dijital Ayak İzi İstihbaratı hizmeti, alıcılarının deepfake ile alakalı tehditler söz mevzusu olduğunda bir adım önde olmalarına dayanakçı olmak için bu cins bir izleme kapsıyor.

Kaspersky Daily ’de deepfake sanayisi hakkında daha fazla bilgi edinebilirsiniz.

Kaspersky, deepfake ’lerle alakalı tehditlerden korunmak için şunları öneriyor:

Kuruluşunuzdaki siber güvenlik uygulamalarını hakimiyet edin- sadece yazılım açısından değil, gelişmiş BT maharetleri açısından da. Mevcut tehdit civarının önüne geçmek için Kaspersky Threat Intelligence kullanın.  Müessesesel “insan güvenlik duvarını” kuvvetlendirin. Çalışanlarınızın deepfake ’in ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri güçlükleri kavradığından emin olun. Çalışanlara bir deepfake ’i nasıl tespit edeceklerini öğretmek için aralıksız farkındalık ve eğitim çalışmaları yapın. Kaspersky Automated Security Awareness Platform, çalışanların en yeni tehditler mevzusunda aktüel kalmasına dayanakçı olur ve dijital okuryazarlık seviyelerini artırır. Nitelikli haber kaynaklarına müracaat etin. Cahil ve bilgi noksanlığı deepfake ’lerin yaygınlaşmasında ehemmiyetli bir faktör olmaya devam etmektedir.  ‘Güven ama doğrula ’ gibi sağlam protokolleri devreye alın. Sesli ileti ve videolara kuşkuyla yanaşmak insanların asla aldatılmayacağını garanti etmez, ancak yaygın tuzakların çoğundan sakınmaya dayanakçı olabilir.  Deepfake kurbanı olmamak için videoların dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareket, bir kareden değişiğine ışıkta kaymalar, cilt tonunda başkalaşımlar, enteresan göz kırpmalar veya hiç göz kırpmama, konuşmayla geçim sağlamayan dudaklar, görüntüdeki dijital sunilikler, maksatlı olarak düşük nitelikte kodlanmış ve cılız aydınlatmaya sahip videolar gibi.

 

Kaynak: BYZHA Beyaz Haber Ajansı