Deepfake (Derin Sahte) konusunda Türkiye’de belki de tüm halkımıza ilk uyarıyı yaklaşık 2,5 yıl önce ben...

Deepfake (Derin Sahte) tehdidine karşı ülkemizde sanıyorum Türkiye’de ilk uyarılardan birini 21 Şubat 2021 tarihinde “Teke Tek Bilim” programında Sayın Fatih Altaylı’nın konuğu olduğumda yapmıştım.

Bu programda deepfake teknolojisi ile üretilen, yapay sinir ağları ile Cumhurbaşkanı Erdoğan’ın bu yolla konuşturulduğu bir videoyu aktararak tehlikenin boyutunu Türk milletine göstermiştim.

Peki deep fake nedir?

Bir kişinin yüzünün, sesinin ve hareketlerinin gerçeğe uygun şekilde taklit edilmesini sağlayan görüntü ve ses manipülasyon yöntemlerine deepfake (derin sahte) deniliyor.

Deepfake (Derin Sahte) teknolojisi Avrupa ülkeleri ile ABD’de iş insanları ve ünlü kişileri hedef seçerek şantaj edilmeleriyle gündeme gelen bir yapay zekâ uygulaması…

Deepfake (Derin Sahte) manipüle, sentetik medya içeriği üretimi için kullanılan yöntemlerden bir tanesi…

Kullanılan teknikler ile kişilerin esasında sergilemedikleri davranışları sergilemiş gibi, söylemediği cümleleri söylemiş gibi gösterilebiliyor…

Bu şekilde var olmayan kişi veya nesneler var gibi, yaşanmamış olaylar ise yasanmış gibi gösterilebilir…

Kurgu yöntemleri ile gerçekçi bir şekilde olmayan olaylar, kişiler ve davranışlar üretilebiliyor….

Farklı zamanlarda alınmış gerçek ses ve görüntülerin birleştirilmesi ile yaratılan sahte videolar olarak tanımlanabilecek deepfake (derin sahte) tehlikesi konusunda ben ve Başkanı olduğum Mavi Vatan Denizcilik Ve Global Stratejiler Merkezi (@turkdegs) uyarılarda bulunmuştuk.

Verilerin Üçüncü Taraflara Paylaşımına Herkes Onay Verdi

Deep Fake teknolojisi için verilere ihtiyaç var ve bunun da kolay yolu bulunmuş…

Herhangi bir internet sitesine ya da uygulamaya girdiğinizde site ya da uygulama sahibi firmalar bizden kişisel verilerimizin toplanması ve kullanılmasına dair onay istiyorlar..

Bize dair kullanacakları bu verilerin üçüncü taraflara devrinin onayını bizden sıklıkla istenmesi de bu bağlamda tesadüf gibi gözükmüyor..

Firmalar bu onayı vermeyenlerin çeşitli uygulamaları kullanamayacaklarını belirterek verileri ele geçirme noktasında bir dayatma gerçekleştiriyorlar…

Herkes cep telefonlarında dahi kullandığı uygulamalarda bu onayları vermek durumunda kalıyor…

Böylece verilerimiz deep fake teknolojisi kullananlara da gidebiliyor…

FETÖ ve benzerleri bu tür teknolojileri kullanmakta çok ustalar…

İşte ben ve TÜRKDEGS defalarca, FETÖ başta olmak üzere birçok ahlaksız örgüt tarafından derin sahte (deepfake) teknolojisinin kullanılabileceğini, yapay sinir ağları yoluyla kişilerin söylemediği şeyleri söylemiş gibi kurgu görüntülerin oluşturulabileceğini, bu yolla tehdit/şantaj ve siyasi operasyonlar yaşanılabileceğini belirtmiştik..

Deepfake (Derin Sahte) Teknoloji ile Güney Kore’de Ölüleri Konuşturuyorlar

Güney Kore’de deepfake teknolojisi kullanılarak makina öğrenimi ile ölü insanları yapay sinir ağları ile taklit etmeye/konuşturmaya başladılar.

Ölüyü konuşturan bir teknoloji, diriyi hayli hayli konuşturur!

Yarın bir gün hepimizin ses verilerini, video verilerini, sohbet uygulamalarından/sosyal medya uygulamalarından paylaştığımız verilerimizi kullanarak aynı şeyi bize yapabilirler.

Söylemediğimiz şeyleri söylemişiz gibi servis edebilir, olmadığımız yerlere/toplantılara bizleri ekleyebilirler.

Rahmetli Barış Manço bu yolla reklam filminde oynatıldı.

Türkiye’de bu teknoloji ilk kez bir sigorta firmasının reklam filminde kullanıldı ve rahmetli Barış Manço bu yolla reklam filminde oynatıldı.

Rusya-Ukrayna Savaşı Sırasında Ukrayna Devlet Başkanı Zelenski için Tasarlanan Deepfake Videosu Beni Haklı Çıkarmıştı

Rusya-Ukrayna savaşı sırasında Ukrayna Devlet Başkanı Zelenski’yi teslim olurken gösteren deepfake görüntüleri yayınlanmış ve uyarılarımda haklı çıkmıştım.

Zelenski’yi deepfake teknolojisini kullanarak teslim olmuş gibi lanse eden videonun ardından bunun bir deepfake olduğunu ve asla silah bırakmayacaklarını açıklaması üzerine deepfake’in savaş sırasında 3K (kargaşa, karmaşa, kaos) senaryolarında kullanılabileceği gözler önüne serildi.

Deepfake Teknolojisinin Bir Başka Hedefi ise BAYRAKTAR Olmuştu

Deepfake teknolojisiyle Ukrayna Başbakanı Denis Şmihal’in kılığına giren bir Rus ajanı, Haluk Bayraktar’la görüşmeye çalıştığı ortaya çıkmıştı.

İstihbarat operasyonlarında kullanılmaya başlayan deepfake teknolojisi hedef devletlerin savunma sanayii antlaşmalarına dair devlet sırlarını ortaya çıkarmak adına istihbarat servislerinin kullandığı bir yöntem olmaya başladı.

Deepfake Teknolojisinin Bir Başka Hedefi ise BAYRAKTAR Olmuştu

Deepfake teknolojisiyle Ukrayna Başbakanı Denis Şmihal’in kılığına giren bir Rus ajanı, Haluk Bayraktar’la görüşmeye çalıştığı ortaya çıkmıştı.

İstihbarat operasyonlarında kullanılmaya başlayan deepfake teknolojisi hedef devletlerin savunma sanayii antlaşmalarına dair devlet sırlarını ortaya çıkarmak adına istihbarat servislerinin kullandığı bir yöntem olmaya başladı.

Deepfake Teknolojisine Karşı Dikkat Etmemiz Gereken Hususlar

Resmî kurumlardan açıklama gelmedikçe sosyal medya platformları kapsamında yayılan görüntülere şüphe ile yaklaşmalıyız..

Gördükleriniz ve duyduklarınız sinir uçlarınıza dokunacak hassaslıkta ise hemen inanıp kendimizi kaybetmeyelim, sert tepki vermeyelim…

Algoritmaların bizi yönlendirmesine, duygularımızı kontrol etmesine izin vermeyelim…

Sosyal medya okuryazarı (yeni medya okuryazarı) bir bakış açısı ile her gördüğümüze ve duyduğumuza şüphe ile yaklaşarak gerçekliğini sorgulayalım…

Yani sosyal medya ile kolay aldatabilen, inandırılabilen ve yönlendirilebilen kişilerden olmayalım..

Deepfake (Derin Sahte) Tehdidine Karşı Uyarıyorum…

Deep Fake teknolojisini kullanan örgütler ve devletler iç karışıklık planladıkları ülkelerde devlet başkanlarını, siyasi parti liderlerini ve toplum önderlerini deepfake teknolojisi ile konuşturarak halkları galeyana getirebilir, sokakları bu yolla karıştırabilirler.

Türkiye’de de özellikle bu tehlikelere karşı uyanık olmak lazımdır…

Her şeye inanmayalım, sorgulayalım ama bazılarının da gerçekten yaptıkları şeyler ortaya çıkınca, kendilerini kurtarmak için “bu bir deep fake komplosu” diyebileceklerini de unutmayalım.