Deep Fake (Derin Sahtekarlık) 2019 yılında Stanford Mühendisleri tarafından cümbüş bölümüne yönelik olarak geliştirilen bir teknolojidir. Örnek olarak; montaj sırasında, bozuk çıkan bir konuşma, tekrar çekim yapmadan düzeltebilir hale geliyor. Gerçi manzara manipülasyonu, görüntülemenin kendisi kadar eskidir. T24’ten Füsun Sarp Nebil’in yazısına nazaran, tıpkı biçimde CGI de yıllardır piyasada ve her ikisi de deep fake üzere geniş bir kullanım alanı buldu. Fikri bu seviyeye evrimleştiren ise Princeton’dan yüksek lisans çalışması yapan Ohad Fried isimli bir öğrenci.
Deep Fake, makine öğrenme teknolojisi üzerine konseyi. Yani bireylerin evvelki görüntülerindeki mimikleri ve bilhassa ağız hareketleri takip edilerek, manzara oluşturuluyor.
Deep Fake teknolojisinin geldiği noktada, deep fake görüntüsü yapmak word evrakındaki bir yazıyı düzenlemek kadar kolay bir hale gelmiş durumda. Yani dilediğiniz kişinin görüntüsünü alıp, canınız ne istiyorsa söyletebiliyorsunuz. Düzenleyici, bir metni kullanarak görüntüyü değiştirebilir. Editör, söz sürecine benzeri biçimde, kolaylıkla yeni sözler ekleyebilir, istenmeyenleri silebilir ya da bitmiş bir görüntüyü tekrar düzenleyebilir.
Günümüzde yapılan varsayımlara nazaran, tüm deep fake sahtekarlıkların yüzde 96’sı pornografik manzaralardan oluşuyor. ABD’de bilhassa intikam pornolarında (eski sevgilinin yayınladığı) deep fake kullanımı çok artınca, birçok eyalette yasaklama ve ağır cezalar geldi.
Bu teknoloji siber hatalılara da yardımcı olabiliyor. Şimdiden finans şirketlerine yönelik sesli ya da imajlı birtakım deep fake sahtekarlıklarından bahsediliyor. Örneğin bir kripto para ünitesi dolandırıcılığı olayında Elon Musk ile yapılan uydurma bir röportaj kullanıldı.
Ama Deep Fake asıl siyasete ve seçimlere potansiyel olarak risk getiriyor.
DUYULARI KANDIRAN DEEP FAKE’LER NASIL ANLAŞILIR
Deep fake görüntüler cümbüş bölümü için geliştirilmiş olsa da, maalesef berbat emelli kullanımı daha fazla. Deep fake görüntüler sorumsuzca kullanıldığında bireyler ve kuruluşlar için kıymetli tehditler oluşturuyor.
Ancak yeniden de Deep Fake görüntüleri anlamaya yardımcı olacak kimi ipuçları var. Bunları aktaralım;
1. Doğal olmayan göz hareketlerine bakın
Yaygın bir ikaz işareti, doğal olmayan göz hareketleri yahut göz hareketi eksikliğidir, bilhassa de göz kırpma yoktur. Doğal görünen bir formda göz kırpmayı taklit etmek zordur. Göz hareketlerini gerçek bir halde tekrar oluşturmak da zordur. Zira bir kişi bir diğeriyle konuşurken gözleri olağanda onları takip eder.
2. Yapay yüz hareketleri
Bir kişinin yüzünde, söylediklerine uyması gereken duyguyu göstermiyorsa büyük olasılıkla deep fake’tir. Yüz geçişini yahut manzara birleştirmeyi algılayabiliyorsanız, görüntü deep fake olabilir.
3. Yüz özelliklerinin doğal olmayan konumu
Bir kişinin yüzü ve burnu farklı istikametlere doğrultulmuşsa gerçekmiş üzere görünen görüntülere karşı dikkatli olmalısınız. Ayrıyeten burunlarının durumunu da denetim edebilirsiniz.
4. Ses kalitesini karşılaştırın
deep fake imalcileri tipik olarak seslerden çok görsellere odaklanır. Bu nedenle sesten / konuşma usulünden de farkı tespit ediyor olabilirsiniz. Makûs dudak senkronizasyonu, robotik sesler, garip sözcük söylemi, dijital art plan gürültüsü ve hatta ses eksikliğine dikkat edin.
5. Garip beden formu yahut hareketi
Bir kişi yana dönüp başını hareket ettirdiğinde ya da bir kareden başkasına hareketleri kesik kesik yahut kopuksa, çarpık yahut kapalı görünüyorsa şüphelenmelisiniz.
6. Garip duruş yahut fizik
Deep fake’in öbür bir göstergesi, bir kişinin beden biçiminin doğal görünmemesi yahut baş ve bedeninin garip yahut tutarsız bir formda konumlandırılmasıdır. Deep fake teknolojisi tipik olarak tüm beden yerine yüz sınırlarına odaklandığından, bu tespit edilmesi daha kolay olan anomalilerden biridir.
7. Renk ve aydınlatmadaki uyumsuzluklara dikkat edin
Alışılmadık cilt tonları, lekeler, garip aydınlatma ve garip formda yerleştirilmiş gölgeler, gördüklerinizin geçersiz olabileceğini gösterir. Kuşkulu bir görüntü izliyorsanız, bireydeki tutarsızlıkları not edin ve bunları orjinal bir referansla karşılaştırın. Bu, bir deep fake olup olmadığını belirlemenize yardımcı olacaktır.
DEEP FAKE GELİŞİYOR, TESPİT ZORLAŞIYOR
Bunları saymakla birlikte, not edelim; teknoloji ilerledikçe derin sahtekarlıklar da gelişiyor. Bu nedenle tahminen 8.madde olarak şunu sayabiliriz (ki seçim öncesi 10 günde beklenti de bu yönde);
8. Ünlü bir kişinin çılgın argümanlar yahut gerçek olamayacak şeyler söylediğini duyarsanız, deep fake olabilir
Yukarıdaki Elon Musk görüntüsünde olduğu üzere, ünlü bir kişinin bilindiğinin bilakis bir şeyler söylediğine rastlanılırsa, görüntü ikna edici olsa bile gerekli ihtimam gösterilmeli ve bilgileri saygın kaynaklardan denetim etmelidir.
Ayrıca, deep fake tespit etmeye yönelik kimi çalışmalar da var. Intel, Adobe ve Microsoft, geçen yıl deep fake ile savaşmak için “Coalition for Content Provenance and Authenticity (C2PA)” işbirliğini duyurdular. Bunları da incelemek ve takip etmek gereklidir.
Dolandırıcıların deep fake eksikliklerini gizlemek için görüntüleri kasıtlı olarak kodlayabildiği unutulmamalıdır. Bu nedenle en yeterli strateji görüntüye bakarak ipucu aramak değil, sağduyu ile gerçekleri denetim etme hünerlerini kullanmaktır.