deepfake

Deepfake’ler, yapay zeka kullanılarak üzerinde oynanmış videolardır ve hükümetler, kolluk kuvvetleri ve bireyler için giderek artan bir endişe kaynağıdır. Bu sentetik ortam parçaları çok inandırıcı olabilir ve bir gün kendi gözlerimize güvenme yeteneğimizi baltalayabilir. Peki deepfake teknolojisi nedir? Ve neden bu kadar tehlikeli?

Amacı nedir?

Deepfake’lerin, Hollywood gişe rekorları kıran filmlerdeki aktörlerin yaşlanmasını engellemekten siyasi rakiplere karşı tehlikeli propaganda savaşları yürütmeye kadar çeşitli amaçları olabilir.

Deepfake teknolojisi, politikacılar ve ünlüler de dahil olmak üzere, aslında hiç yapmadıkları şeyleri söylüyor ve yapıyormuş gibi görünen insanların ikna edici videolarını oluşturabilir. Deepfake programları nispeten erişilebilir ve kullanımı kolaydır ve yakında film endüstrisinde önemli bir rol oynayabilir.

Bunu, yapay zeka sistemlerinin belirli insan seslerinin sesini aynı şekilde yeniden oluşturabileceği gerçeğiyle birleştirin ve iyi bir derin sahte, güçlü ve potansiyel olarak tehlikeli bir araç haline gelir.

Deepfake videolar nasıl yapılır?

Deepfake’ler, medyayı görüntülemek ve yeniden oluşturmak için derin öğrenme adı verilen bir süreç kullanan yapay zeka sistemleriyle yapılır. Bazı durumlarda, bu derin öğrenme sistemleri üretken bir rakip ağ kullanır; esasen, yapay zeka ağı, çıktılarını öğrenmek ve geliştirmek için rekabet eden iki rakip bileşene bölünmüştür.

Deepfake genellikle bir kişinin, genellikle bir aktörün video görüntülerini içerir. Bu, daha sonra üzerine başka bir yüzün yansıtılacağı kukladır. Yapay zeka daha sonra farklı bir bireyin yüzlerce görüntüsünü inceler ve özelliklerini gerçekçi bir şekilde yeniden oluşturur. Yeni yüzün görüntüsü daha sonra oyuncunun hareketlerine, senkronize ifadelere ve dudak hareketlerine eşlenir.

Deepfake yapay zekası hâlâ parlatılıp iyileştiriliyor olsa da, zaten çok ileri bir aşamada ve minimum insan gözetimi ile hızlı bir şekilde sonuç üretebiliyor.

Deepfake’leri kim yapabilir?

Wombo ve FaceApp gibi çeşitli ücretsiz uygulamaları kullanarak herkes derin sahte videolar ve resimler yapabilir. Bunlar, son derece inandırıcı sonuçlar vermeyen basit programlardır, ancak buzdağının sadece görünen kısmıdır.

Görsel efekt sanatçıları, yaşlı oyuncuların yaşını küçültmenin ve hatta ölen ünlüleri ekrana geri getirmenin yollarını arıyor. “Terminatör: Kara Kader”de Arnold Schwarzenegger’in yaşını küçültme ve “Rogue One: Bir Yıldız Savaşları Hikayesi”nde Peter Cushing’i diriltme girişimlerini gördük.

Bunlar derin sahteler değil, görsel efekt sanatçıları tarafından yapılan dikkatli dijital rekonstrüksiyonlardı. Onlarla ilgili çarpıcı olan şey, birçok amatör VFX sanatçısının bu filmlerden ilgili sahnelerin kendi versiyonlarını yapması ve daha da iyi yüz canlandırmaları oluşturmak için deepfake yazılımı kullanmasıdır. Bu, derin sahtekarlıklar için heyecan verici ve meşru bir kullanım durumunu gösterir.

Yapay zeka tarafından oluşturulan bu inandırıcı videolardan bazılarının yanı sıra Donald Trump, Barack Obama ve Tom Cruise gibi tanınmış kişilerin aynı teknolojiyle yeniden oluşturulmuş çok sayıda sahte videosunu YouTube’da izleyebilirsiniz.

Deepfake’ler yasa dışı mı?

Deepfake’ler, dezenformasyon, sahte haber ve kötü niyetli yetişkin içeriği araçları olarak hızla kötü bir ün kazanıyor. Bununla birlikte, kendi içlerinde yasa dışı değildirler.

Deepfake’lerin meşru kullanımları vardır – bunların başında filmlerdeki dijital efektlerdeki rolleri gelir – ancak yasa dışı uygulamalar için de kullanılabilirler, bu da son zamanlarda kamu bilincini geliştirmelerinin ana nedenlerinden biridir.

Deepfake’ler bazen yasa dışı olarak pornografik videolar ve resimler oluşturmak için kullanılır ve genellikle kadın ünlülerin ve tanınmış kişilerin benzerlerini kullanır. Hatta bu materyali otomatik olarak oluşturabilen derin sahte çıplak botlara dair raporlar bile var.

Bu yeterince kötü değilse, bu sahte videolar aynı zamanda hükümetlerin düşmanlarına olan güveni sarsmaya çalışan propaganda stratejisinin bir parçası olabilir.

Deepfake nasıl belirlenir

Bir derin sahtekarlığı tespit etmek her zaman kolay değildir. Bazıları gerçeküstü tekinsiz bir vadi etkisi yaratan yüz ifadeleriyle açıkça sahte videolar olsa da, diğerleri daha sofistike.

İkna edici bir deepfake videoya bakıp bakmadığınızı belirlemenize birkaç faktör yardımcı olabilir. Video bir yüz içeriyorsa dikkatinizi oraya odaklayın ve şu eşantiyonları arayın:

Pürüzsüz veya bulanık yamalar

Deepfake video yer paylaşımının alttaki kişinin yüzüyle buluştuğu bağlantı noktaları bazen garip bir şekilde pürüzsüz ve dokusuz görünebilir. Daha iyi örneklerde bile, herhangi bir ani kafa hareketi veya ışıklandırmadaki değişiklikler anlık olarak bulanık yüz kenarlarını ortaya çıkarabilir.

Yanlış yüz olmayan özellikler

Video, bir politikacı gibi tanınmış bir kişiyi temsil ediyorsa, karşılaştırmak için o kişinin resimlerini bulabilirsiniz. Ana yüz özelliklerinin dışında değiştirilmemiş olabilecek öğelere bakın; söz konusu video ile daha eski, daha güvenilir görsel kaynaklar arasında senkronize olmayan eller, saç, vücut şekli ve diğer ayrıntılar.

Doğal olmayan hareket

En azından şimdilik, konu fazla hareket etmediğinde derin sahteler daha inandırıcı görünüyor. Öznenin gövdesi ve başı garip bir şekilde sert görünüyorsa bu, videonun yaratıcılarının derin öğrenme yapay zekasının çok fazla hareket izlemek zorunda kalmadan kişinin yüzüne bir görüntü eşlemesini kolaylaştırmaya çalıştıklarının bir işareti olabilir. .

İnandırıcı olmayan bir ses

Deepfake teknolojisi hızla gelişiyor, ancak şimdilik bilgisayarları ses simülasyonları oluşturmak üzere eğitmek, inandırıcı deepfake görüntüleri ve videoları sentezlemekten daha kötü sonuçlar veriyor gibi görünüyor.

Deepfake’in yaratıcısı, konusunun konuşmasını istiyorsa iki seçenek arasında seçim yapmak zorundadır – ya yapay zeka tarafından üretilmiş bir ses kullanmak ya da kaynak materyali taklit edebilecek bir aktör kullanmak. Sesi bir ünlünün veya politikacının konuşmasıyla karşılaştırabilir ve bazı farklılıklar görebilirsiniz.

Deepfake teknolojisi bir tehdit midir?

Deepfake teknolojisi, bireyler ve genel olarak toplum için bir dizi çok gerçek tehdit oluşturmaktadır. İntikam pornosu olarak yaratılıp çevrimiçi olarak paylaşılırsa, ikna edici derin sahte videolar son derece zararlı olabilir, bu nedenle birçok ülke bu faaliyeti suç sayacak yasalar çıkarmaya başlıyor.

Bununla birlikte, burada inceleyeceğimiz derin sahtekarlıklar tarafından ortaya çıkan diğer bazı büyüyen tehditler.

Sahte haber ve propaganda

İkna edici bir deepfake video, siyasi muhalifleri ve rakip hükümetleri karalamak için propaganda olarak kullanılabilir. Örnek olarak, Rusya’nın Ukrayna’yı işgalinden kısa bir süre sonra , Ukrayna cumhurbaşkanının teslim olduğunu gösteren derin sahte videoların çevrimiçi olarak yayınlandığı 2022 yılına bakabiliriz.

Bu videonun sahte olduğu ifşa edilmiş olsa da, teknolojinin tespit edilmesi zorlaştığında bu stratejinin ne kadar zarar verici olabileceğini hayal etmek kolay. Deepfake, siyasi bir rakibi karalamak ve seçmenleri etkilemek için kullanılabilir. Alternatif olarak, bu teknolojinin yaygın kullanımı gerçekten suçlayıcı bir videoyu itibarsızlaştırmak için kullanılabilir.

Bir derin sahte videoyu tespit etmek imkansız hale gelirse, uydurma medyanın sahte haber risklerini artırma ve ana akım medyada güvensizliği körükleme potansiyeli vardır.

Dolandırıcılık ve toplum mühendisliği

Deepfake teknolojisi, insanları özel bilgileri ifşa etmeleri ve hatta kimlik avı saldırılarıyla para dağıtmaları için kandırmak için de kullanılabilir . Bir arkadaşınızdan yurtdışında mahsur kaldığını ve acil mali yardıma ihtiyacı olduğunu açıklayan bir Facebook mesajı alırsanız şüphelenebilirsiniz. Belki onları ararsınız veya farklı bir uygulamadan onlara mesaj gönderirsiniz ve Facebook hesaplarının saldırıya uğradığını öğrenirsiniz.

Şimdi aynı senaryoyu hayal edin, ancak bir mesaj yerine arkadaşınızın tamamen ikna edici bir videosu gönderiliyor. Ses ve video gerçek görünüyor; Artık eve dönüş bileti için yeterli paraları olmadan gerçekten bir havaalanında mahsur kaldıklarının görsel kanıtı gibi görünen bir şeye sahipsiniz. Pek çok insan, daha fazla güvence istemeye gerek duymadan parayı gönderirdi – ancak az önce gördükleri bir derin sahte olabilir.

Üretken rakip ağların ve diğer makine öğrenme sistemlerinin artan karmaşıklığı sayesinde , bir dolandırıcı kısa sürede bu ikna edici videoları kimlik hırsızlığını kolaylaştırmak ve daha fazla dolandırıcılığa yardımcı olmak için kullanabilir.

Deepfake’lerin geleceği

Teknoloji geliştikçe derin sahtekarlıkları tespit etmek giderek zorlaşacak. Bilgisayarı ve VFX yazılımı hakkında temel bilgisi olan herhangi birinin başkanın çirkin bir şey söylediği bir video çekebileceği bir noktaya ulaşırsak, başımız belada demektir.

Deepfake’leri tespit etmek zaten zor, ancak yakında tespit edilmeleri imkansız hale gelebilir. Kutuplaşmış bir siyasi sistemde, derin bir sahtekarlığın gizli bir kampanya stratejisinin parçası olarak kullanılması pek olası değildir. Teknolojinin son filmlerde ve TV şovlarında kullanılması halk arasında farkındalık yaratmaya yardımcı olsa da, ikna edici bir video birçok insanı yanlış bilgilendirebilir.

Deepfake dolandırıcılarının oluşturduğu risklere karşı koymak için bugün atabileceğiniz basit bir adım, çevrimiçi olarak yayınladığınız görüntü sayısını sınırlamaktır. Yapay zeka tarafından oluşturulmuş inandırıcı bir video oluşturmak, sistemin yeniden oluşturmaya çalıştığı öznenin fotoğraflarına ve görüntülerine erişmesine bağlıdır. Sosyal medya profillerinizi gizli tutmanızı ve yüzünüzün normal görüntülerini paylaşmaktan kaçınmanızı öneririz.

Yazan: Yemliha Toker


Yemliha Toker
Profesyonel SEO Uzmanı ve E-ticaret uzmanıyım. https://yemlihatoker.com web adresim aracılığı ile SEO hakkında yanlış bilinen gerçekleri bildirmek ve SEO'yu öğrenmek isteyen herkese yardımcı olmaya çalışıyorum.