“Deepfake”ler İnterneti Yıkabilir!

1638
0
Paylaş:

Deepfake! Bu tehdidi daha önce de duymuştuk, ancak hızla gelişen teknoloji gerçekten endişe verici. Bugün çoktandır deepfake’lerle dolu bir dünyada yüzüyor olabilirdik ve haberimiz bile olmazdı. Nasıl olsundu ki? Son ABD başkanlık seçimleri veya Brexit referandumundan önce mikro hedefleme ile manipüle edilenler, bilgilerinin onlara karşı kullanıldığını çok geç öğrendiler. Kaynayan sudaki kurbağa gibi, çok geç olana kadar suyun ısındığını fark etmiyoruz.

Bir videonun oldukça etkili bir şekilde sahtesinin yapıldığı ve gerçek olup olmadığını söylemenin imkansız olduğu deepfakelerle dolu dehşet verici bir dünyaya çok yaklaştık. Makine kullanımı, CGI ve yüz haritalama teknolojisindeki ilerlemeler “sayesinde” deepfakeler ihtimal dahilinde olmaktan çıkıp mümkün hale geldi.

Hiçbir fırsatı kaçırmayan Google, kendi deepfake’lerini yaratarak deepfake videoları ortaya çıkartacak bir sistem geliştirmeye yardımcı oluyor! 24 Eylül’de yayınlanan bir blog yazısında Google Research, konuyu ciddiye aldığını söyledi.

Google, (videolarının kullanılmasına) onay veren 28 katılımcıya ait 363 gerçek video ile manipüle edilmiş 3068 adet videodan oluşan geniş bir veri seti hazırlayarak, Nuremberg FaceForensics projesinde çalışan Münih Teknik Üniversitesi, Napoli Üniversitesi Federico II ve Erlangen Üniversitesi araştırmacılarının kullanımına sundu.

DEEPFAKE NEDİR?

Deepfakeler, mevcut veri setlerinden yeni veriler yaratabilen bir algoritma seti olan Generative Adversarial Networks’ü (GANlar), yani Üretken Çekişmeli Ağlar’ı kullanır. Sonuçların ürkütücü olduğu çok açık. Politikacıların imajlarındaki manipülasyonların yanı sıra, deepfake hareketi ayrıca yeni ve rahatsız edici bir intikam pornosunun habercisi oldu. Ancak topluma yönelik tehditler, teknikle ilgili olmanın ötesine geçiyor. Gözlerinize inanamadığınız bir dünyada, gerçek olanı nasıl bilebilirsiniz? Videonuzun derin bir sahte OLMADIĞINI nasıl kanıtlayabilirsiniz? Bakınız: Buzdağının Görünen Yüzü: Faceapp, Güvenilir Mi?

Siber güvenlik şirketi Deeptrace Labs tarafından yayınlanan yeni bir rapor karma sonuçlar ortaya çıkardı: Deepfakelerin dezenformasyon kampanyalarında gerçekten kullanıldığına ilişkin herhangi bir örnek tespit edilememiş olsa da, kullanılabilecekleri bilgisinin güçlü bir etkisi olduğu ortaya çıktı.

Reuters video ürünleri müdürü Nick Cohen, “Habercilik işinde, üçüncü kişilerin içeriğine güvenebilme veya daha doğrusu bunlardaki dezenformasyonu belirleyebilme yeteneği çok önemli” dedi. Bu nedenle Reuters, etten kemikten gerçek insanları kullanarak kendi deepfake deneyimini başlattı!

Deney, deepfakelerin tespit edilmesine yardımcı olacak bazı uyarı işaretleri belirledi: ses-video senkronizasyonu sorunları; özellikle ıslık sesleri ile sıradışı ağız şekli; hareketsiz bir özne. Ancak teknoloji geliştikçe, insanlar kendi gözleriyle gördüklerine bile güvenemeyecekler.

Deepfakeleri tespit etmek için AI kullanımı henüz yaygın olarak mümkün değil, bu yüzden kanun koyucular en başta kendi çalışmalarının rayından çıkarılabileceği korkusuna karşılık durumla ilgilenmeye başlıyorlar. Ancak çıkan söylentilere karşın dezenformasyonla ilgili bugüne kadar bağlayıcı kurallar getirilmemiştir. Hatta Avrupa Birliği’nin dezenformasyonla ilgili Uygulama Kuralları, konuya değinmiyor bile.

Haziran ayında, Marietje Schaake, o zamanki MEP teknoloji şirketlerinin demokrasi üzerindeki rolüne ilişkin meclis soruşturması çağrısında bulundu. Schaake, “Özdenetimin yetersiz olduğu kanıtlandı” dedi. “Kötüniyetli kişilerin teknolojik platformları suistimal ettikleri, demokrasinin altını oyduklarına dair yeni haberler almadığımız bir tek gün bile olmuyor; teknoloji şirketleri buna yönelik etkili önlemler almıyorlar. Şirketlerin iş modelleri de, tıpkı botnet ve deepfake kullanımı gibi, bilgiye erişimi etkiliyor. Gözetim ve hesap verme sorumluluğunun acilen iyileştirilmesi gerekiyor.”

Marietje Schaake, bir komitenin, teknolojik platformların çoğu bilinmeyen çalışma detaylarını yemin altındaki uzmanlardan dinleyerek, bunların demokrasi ve seçimler üzerindeki etkisini açığa çıkarmasını önerdi.

Varsayım, deepfakelerin öncelikle demokratik kurumları raydan çıkarmak için konuşlandırılacağı yönündedir. Ve bu, birkaç nedenden dolayı mantıksız bir varsayım değildir. Birincisi, daha önce de belirtildiği gibi, deepfake, belirli yabancı katılımcıların hoş karşılandığı istikrar bozucu bir etkiye sahiptir. İkincisi, hâlihazırda iktidara sahip olanlar yanlışlıklar içeren videolarını inkar etmek istediklerinde, onları “deepfakeler” olarak gösterebilirler. Son olarak ve en önemlisi, gerçekten iyi deepfakeler oluşturmak pahalıdır.

Evde mizahi kullanım için “cheapfakes” sunan çevrimiçi sitelere rağmen, yalnızca sağlam kaynaklara sahip olanlar uzun vadeli ikna edici videolar oluşturabilir, zaten yüksek maliyet ve teknik engeller de yakın zamanda ortadan kalkmayacak. Politikacılar (ve ünlüler) de arzu edilen hedeflerdir, çünkü inanılır bir derinlik yaratmada yararlı olacak çok fazla görüntü ve fotoğrafları vardır.

Ve biz ölümlülerin her gün “deepfake” olmaktan kaçınmak için kullanabileceği bazı zırhlar var. Kişisel verilerinizin büyük bir kısmını vermemek de dahil – halka açık olan videoların ve görüntülerin sayısını sınırlandırmak gibi gündelik hayatta pek çok korunma yöntemi mümkün.

İşletmeler de dikkatli olmalıdır. Raporlara göre, suçlular, CEO’ların sesini “kazanç duyuruları, YouTube videoları, TED konuşmaları v.b’den elde edilen saatler süren konuşmalarla eğitilen ” bir AI programı ile taklit ederek, başarılı bir şekilde milyonlarca dolar çaldılar. Diğer riskler arasında, hisse senedi fiyatlarının düşmesine yol açabilecek bir şey söyleyen bir CEO’nun deepfake’inin sızdırılması yer alıyor.

Zamanla, deepfake’i tespit teknolojisi ortaya çıkabilir veya yasa koyucular uygulanmasına ilişkin caydırıcı bir yol bulabilirler. O zamana kadar, nasıl yapıldığı bilgisine, yeterli kaynak ve zamana sahip olan ve intikama susamış hiçkimsenin canını sıkmayın.

Editör: SANEM GÜVEN

JENNIFER BAKER·21 Ekim, 2019
https://www.cpomagazine.com/cyber-security/deepfakes-could-break-the-internet/

TaglarDeepfake
Paylaş:

Cevap bırakın