Deepfake: Artık görmek inanmak değildir

Deepfake: Artık görmek inanmak değildir

Sahte pornografiden, siyasetçilere yönelik karalama kampanyalarına kadar internette sıkça dolaşıma giren sahte videoların arkasında deepfake teknolojisi yer alıyor. Peki bu videolar nasıl hazırlanıyor? Tehdit ne kadar büyük ve gerçeği sahtesinden ayırmak mümkün mü?    

Bir video ile karşılaştığınızı düşünün. Sizin yüzünüz, sizin sesiniz, sizin mimikleriniz ama videoda sizin ağzınızdan söylenenler kendi düşüncelerinizden tamamen farklı hatta taban tabana zıt. Kulağa kötü bir kâbus ya da bilim kurgu senaryosu gibi gelse de günümüz teknolojisi ile bu mümkün. Özellikle politikacı ve ünlü isimlerin olmadıkları yerlerde, gerçekleştirmediği eylemlerin ve söylemediği sözlerin yer aldığı videolar, son dönemde sosyal medyada boy göstermeye başladı. Böylece hayatlarımıza yeni bir kavram olan deepfake girdi.

Deepfake teknolojisi

Peki deepfake nedir ve nasıl bir teknolojiye dayanıyor? Milliyet gazetesi teknoloji yazarı ve Layka dijital yayının kurucusu Erdal Kaplanseren bu sorunun cevabını şöyle veriyor:

“Dijital dünyanın güvenirlik bariyerleri sarsacağı endişesiyle gündeme gelen deepfake, içerik oluşturmak veya manipüle etmek için makine öğrenimi kullanan bir yapay zeka (AI) yöntemi. Bu yöntem, bir portre fotoğrafı veya tablodan yüksek gerçekçiliğe sahip, sahte videolar üretilmesine olanak sağlıyor. Deepfake içerikleri, temelinde bir veri sıkıştırma algoritması olan autoencoder adı verilen yapay sinir ağları sayesinde oluşturuluyor. Yapay zeka ve makine öğrenmesi sayesinde dudak hareketleri ve mimikler işleniyor. Kişinin algoritması çıkarıldıktan sonra taklitçinin ağız hareketleri ve mimikleri taklit edilmek istenen kişinin suratında beliriyor.” 

Deepfake teknolojisi sayesinde ağız hareketleri ve mimikler üzerinde oynama yapılabiliyor.
Deepfake teknolojisi sayesinde ağız hareketleri ve mimikler üzerinde oynama yapılabiliyor.

Manipülasyonun dijital hali

Ünlülerin porno sahnelerine yerleştirilen yasa dışı deepfake videoları, bu teknolojinin kötüye kullanımı konusunda ilk akla gelen örnekler. Emma Watson, Natalie Portman, Ivanka Trump, Kate Middleton, Adriana Grande, Natalie Dormer gibi popüler isimlerin bu tür sahte videoları yayımlandı.

Daha kitlesel bir tehdit ise dezenformasyon ve sahte haber konusunda. Nisan 2018’de film yapımcısı, yönetmen ve aktör Jordan Peele ile BuzzFeed’in kurucularından Jonah Peretti’nin hazırladığı video, deepfake’in potansiyel tehlikelerine dikkat çekiyor. Eski ABD Başkanı Barack Obama’nın haberi olmadan çekilen videoda Obama’ya, gelişen teknoloji ile insanların hiç söylemediği sözlerin yer aldığı görüntülerin yaratılabildiğini söylettiriliyor. Videonun en dikkat çekici bölümünde de Obama’nın ağzından “Mesela Donald Trump tam bir ahmak dediğimi düşünün” sözleri dökülüyor.

Deepfake’in tehlikelerine dikkat çekmek için hazırlanan bu video olumlu bir amaç için hazırlansa da dolaşıma giren pek çok videoda tam da bu tehlikenin boyutu gözler önüne seriliyor. ABD Temsilciler Meclisi Sözcüsü Nancy Pelosi, hakkında hazırlanan deepfake videolarında “sarhoş” ve “beceriksiz” gösterildi. Almanya Başbakanı Angela Merkel, Rusya Devlet Başkanı Vladimir Putin ve Arjantin’in eski Devlet Başkanı Mauricio Macri de deepfake videolar ile hedef alınan siyasiler arasında.

Gerçek ortaya çıkacak mı?

Sahte haber ve manipülasyon için kullanılabilen ve gittikçe artan bir tehdit haline gelen bu videoların tespit edilmesi de oldukça güç. Ancak bu konuda gelişmeler yok değil. Aralarında Facebook ve Microsoft ile pek çok önde gelen üniversitenin destek verdiği Deepfake Detection Challenge adında bir organizasyon düzenleniyor. Deepfake videolarını ortaya çıkaran yazılımların bir araya getirildiği ve 31 Mart’a kadar sürecek bu organizasyonda, en iyi çözüme 1 milyon dolar ödül verilecek bir yarışma da yer alıyor.

Türkiye’de deepfake’e karşı çözümler geliştiriliyor. Bu çözümlerden birkaçını Erdal Kaplanseren şöyle sıralıyor: “Deepfake videoları, gerçeğinden ayırması zor olduğu için güçlükle tespit edilebiliyor fakat Türkiye’de faaliyet gösteren çevrimiçi güvenlik çözümleri sağlayıcısı Zemana, deepfake tehdidi karşısında da öncü olma görevini üstlendi. Deepfake Detection Challange gibi tespit yazılımları geliştirme çabaları devam ediyor. Ankara’da özel bir firma da Deepware Scanner (Derinlemesine Tarama) sistemi geliştirdi. Bu sayede herhangi bir video veya sesin sahte olup olmadığı anlaşılabiliyor.” 

Deepfake teknolojisi ile düzenlenen videoları gerçeğinden ayırt etmek bir hayli zor.
Deepfake teknolojisi ile düzenlenen videoları gerçeğinden ayırt etmek bir hayli zor.

Dev şirketler ve ülkeler alarmda

Erdal Kaplanseren’in “bugüne kadar karşılaşılan en güçlü siber tehlike ve etkili siber zorbalık” olarak nitelendirdiği deepfake’e karşı otoriteler de önlemler almaya başladı. Porno amaçlı kullanım konusunda ünlü yetişkin siteleri ve Reddit gibi platformlar ile Facebook ve Twitter, bu tür videolara yasak getirdi. Son olarak Twitter, manipülasyon amacıyla üretilen deepfake videoların ve diğer manipüle içeriklerin 5 Mart tarihinden itibaren etiketleneceği ya da tamamen silineceği açıkladı.

Ülkeler de deepfake tehdidine karşı harekete geçti. Çin’de deepfake videosu yayınlamak suç kabul ediliyor. ABD’de de hem bazı eyaletlerde hem de Senato ve Temsilciler Meclisi’nde bu konuda yasalar getirildi. Ancak hem bu yasal düzenlemelerin ne kadar caydırıcı olduğu hem de deepfake videoların etkisi, Kasım 2020’de yapılacak ABD başkanlık seçimleri öncesi ortaya çıkacak. 2016’daki seçimler öncesinde deepfake videolar dolaşımdaydı. Bu yılki seçimlerde çok daha etkili olması tahmin ediliyor. CNBC’nin internet sitesinde bu konu ile ilgili yapılan haberde bu yılki seçimlerde deepfake ile yapılan dezenformasyon tehdidinin çok daha büyük olduğuna dikkat çekildi. Haberde deepfake’in seçimleri manipüle etmek isteyenlerin kullanabileceği en yeni ve en güçlü araç olduğu görüşüne yer verildi.

Deepfake’in yararlı kullanımları

Tüm bu kötü kullanım ve tehditlere rağmen deepfake teknolojisi insanlar için yararlı olabilir mi? Bu sorunun cevabının “evet” olduğunu belirten Erdal Kaplanseren şöyle devam ediyor:

“Deepfake kullanılarak yapılan kötü amaçlı saldırı yöntemlerinin verdiği zarar ve oluşturulan tehdit ortamı, yapay zekanın etkili bir örneği olan deepfake’in faydalı bir teknoloji olduğu gerçeğinin üstünü kapatıyor. 'Dijital dünyada eti' tartışmalarına yol açan bu teknoloji aslında faydaları da olabilen teknoloji. Örneğin Synthesia adlı bir şirket, video prodüksiyon ihtiyaçlarını ölçeklendirmek için video manipülasyon teknolojisini kullanıyor. Şirket, bu konuda sıtma hastalığı ile ilgili farkındalık yaratmak için David Beckham’ın deepfake videosunu oluşturdu. Videoda Beckham dokuz dilde konuşuyordu. Çin’de popüler olan 'Zao' yazılımı, Marvel hayranları için geliştirilmiş olan 'Avengethem' yazılımı da deepfake’i eğlence için kullanmıştı. Bu örneklerde olduğu gibi deepfake’in yeni pazarlara girme, kitle güvenini oluşturma, krizlere tepki verme gibi faydaları kullanılabilir. Deepfake’in tartışılması neden olan kötü kullanım, teknolojilerin kullanıcının elinde şekillendiğinin göstergesi oluyor.”

Deepfake teknolojisi de diğer teknolojiler gibi kullanıcıların elinde şekilleniyor.
Deepfake teknolojisi de diğer teknolojiler gibi kullanıcıların elinde şekilleniyor.

Deepfake’in amatör kuzenleri

Yararlı ya da tehdit içerikli olsun deepfake videolarını oluşturmak hâlâ gelişmiş teknoloji ve profesyonellik gerektiriyor. Bununla birlikte deepfake videolarının hazırlanmasında kullanılan yapay zekayı içermeyen daha erişilebilir yazılımlarla hazırlanmış videolar da sosyal medyada sıkça yer alıyor. Shallowfake ya da cheapfake olarak adlandırılan bu uygulamalar genellikle photoshop görüntülerinin yeniden bağlamsallaştırma, hızlandırma veya yavaşlatılması yoluyla oluşturuluyor. Sonuç; deepfake videoları kadar profesyonelce olmasa da bu videolar da hem manipülasyon hem de eğlence amaçlı olarak üretilebiliyor.

İster deepfake isterse de daha amatör olan benzer uygulamalar olsun artık dijital dünyada “görmek inanmaktır” sözü geçerliliğini yitiriyor.