Sağ Dikey Reklam Alanı Genişlik: 160px Yükseklik: 600px
Antalya Haberleri
Antalya
PARÇALI BULUTLU
27°
Akdeniz Gerçek Teknoloji Deepfake videoları ve yapay zekanın tehlikeleri: Uzmanlar uyarıyor

Deepfake videoları ve yapay zekanın tehlikeleri: Uzmanlar uyarıyor

Yapay zeka teknolojilerinin gelişmesiyle birlikte, deepfake olarak adlandırılan sahte içerik üretme yöntemleri de giderek yaygınlaşıyor.

5 Dakika
OKUNMA SÜRESİ
Deepfake videoları ve yapay zekanın tehlikeleri: Uzmanlar uyarıyor
KAYNAK: İHA

Yapay zekanın karanlık yüzlerinden biri olan 'deepfake' teknolojisi, halkı kandırma ve dezenformasyona sebep oluyor. Ünlü isimlerin seslerini ve görüntülerini taklit eden dolandırıcılar, sahte videolarla insanların güvenini kötüye kullanıyor. Bu durum, sadece vatandaşları mağdur etmekle kalmıyor, aynı zamanda dezenformasyonun hızla yayılmasına da neden oluyor.

Yapay zekanın ateş ve bıçak gibi olduğunu, birçok faydası bulunduğunu fakat kötü ellerde zarara sebebiyet verdiğini söyleyen KOÜ Yazılım Mühendisliği Bölümü Öğretim Üyesi Doç. Dr. Mehmet Zeki Konyar, bu teknolojinin tüm detaylarını anlatarak, önemli uyarılarda bulundu.

Deepfake videoları ve yapay zekanın tehlikeleri: Uzmanlar uyarıyor

Bilgisayarların düşünme kabiliyetleri yok

Kocaeli Üniversitesi (KOÜ) Yazılım Mühendisliği Bölümü Öğretim Üyesi Doç. Dr. Mehmet Zeki Konyar, 'Bilgisayarların düşünme kabiliyetleri yok. Aslında biz bu bilgisayarlara birtakım şeyler öğreterek, karar vermesini sağlıyoruz. Mesela elma ve armutun fotoğrafını gösteriyoruz. Yüzlerce, binlerce veri kümeleri içerisinden 'Bu elmadır' 'Bu armuttur' diyoruz ve birtakım matematiksel formüller ile bunlara ait özellikleri çıkarıyor. Bu özelliklerden sonra karar oluşturuyor. Örneğin elmaya ve armuta dair özelliklerin neler olduğuyla ilgili bir karar çıkarıyor. Bundan sonra gösterdiğimiz elma ve armuta bakıp, 'Bu elmadır' 'Bu armuttur' diyerek karar veriyor' diye konuştu.

Deepfake videoları ve yapay zekanın tehlikeleri: Uzmanlar uyarıyor

Artık çok basit bir ses kaydınızla sizin için bir video oluşturabiliyorlar

Konyar, 'Her gün yenisi çıkıyor. Artık çok basit bir ses kaydınızla sizin için bir video oluşturabiliyorlar. Veya yazdığınız metin ile sizin için yeni bir fotoğraf üretebiliyorlar. Bunun içinde yapay zekanın güncel teknolojileri kullanılıyor. Binlerce, milyonlarca görüntü kullanılarak bu iş yapılıyor. Örneğin, 'Ben kuş görmek istiyorum. Gagası, kanatları şu şekilde olsun' dediğinizde, böyle bir kuş gerçekte olmayabiliyor ama milyonlarca kuş görüntüsüyle eğitildiği için bunlara ait özellikleri öğrenmeye başlıyor. Mesela artık gagaların nasıl olabileceğini biliyor. Tüm varyasyonları biliyor. Dolayısıyla sizin istediğiniz enteresan özellikteki kuşu üretip, karşınıza çıkarıyor' şeklinde konuştu.

Halkımızın bunu biliyor olması gerekiyor

Konyar, 'Bu sahte videolarda birtakım ünlü kişiler kullanılıyor. Örneğin aralarında Selçuk Bayraktar'ın, Aydın Doğan'ın olduğu videolar yapılmaya başlandı. 'Şuraya yatırım yapın', 'Ben şuraya katıldım çok para kazandım' 'Şuraya para gönderin' gibi videolar çıkmaya başladı. Maalesef birçoğumuz buna inanmak durumunda kalabiliyoruz. Eğer ki biraz bilinçli değilsek kanabiliyoruz. Selçuk Bey'in böyle bir işe girmeyeceğini biliyoruz. Biz biliyoruz fakat bazen bazı vatandaşlarımız bu durumun farkında olmayabiliyor. Ya da Aydın Doğan'ın ismi, cismi bilinmeyen bir yere yatırım çağrısı yapmayacağını biliyoruz. Halkımızın bunu biliyor olması gerekiyor. Ünlülerin adı sanı bilinmeyen bir yerden reklam yapmayacağını herkes bilir. Çünkü bir ünlü reklam alıyorsa bunu sosyal medya hesaplarında paylaşabiliyor' dedi.

Zaten dolandırıcılar bu işi çok iyi biliyorlar

Konyar, 'Yurt içinden veya yurt dışından birtakım siparişlerle yazılım yaptırabiliyorlar. Mesela bugün Hindistan'a istediğiniz yazılımı yaptırabilirsiniz. Orada Hindistanlı yazılımcılar ucuza çalıştığı için sizin tarif ettiğiniz özelliklerle size yazılım yapıp, gönderebiliyorlar. Dolandırıcılar da maalesef çok popüler işler yapıyorlar. Yazılımı son teknolojisine kadar kullanabiliyorlar. Yurt dışından birisi yaptığı için Türkiye'de kimse de töhmet altında kalmamış oluyor. Zaten dolandırıcılar bu işi çok iyi biliyorlar. Nasıl dolandırılacağını, hangi yazılımla, hangi teknolojiyle bunları biliyorlar. Bazen biz bile şaşırıyoruz. O kadar güncel teknolojiler kullanıyorlar ki... Çünkü kazandıkları devasa paralar var ve bu devasa paranın bir kısmını kendilerini, dolandırıcılık yöntemini geliştirmek için harcıyorlar' diye ifade etti.

Deepfake videoları ve yapay zekanın tehlikeleri: Uzmanlar uyarıyor

Kimse bize düşük bir yatırımla yüksek paralar vermez

Konyar, 'Bir kısım vatandaşımız, 'Deneyelim. Bir şey çıkmazsa en fazla telefon numaram gider' diye düşünüyor. Onun için bu değerli bilgi olamayabiliyor ama sadece telefon bilgimizi almıyor. Sizin ses kaydınızı da alabiliyor. Bu ses kaydınızı yapay zeka yöntemi ile kullanarak akrabalarınızı dolandırabilir. Nasıl Selçuk Bayraktar'ın, Aydın Doğan'ın sesini kullanabiliyorsa sizin sesinizi de üretebilirler. Karşımıza bir video, reklam çıktığı zaman kesinlikle şüphelenmemiz gerekiyor. Çokça söylüyoruz, bedava peynir sadece fare kapanında olur. Kimse bize düşük bir yatırımla yüksek paralar vermez' şeklinde konuştu.

Yapay zeka harikadır, yazılım çok güzeldir

Konyar, 'En bilenini ses ve dudak senkron şekilde hareket etmez. Dudak hareketlerimizi tam olarak taklit edemiyor. Her insanın farklı harf ve ses hareketleri var. Bizim çıkardığımız harfleri ve kelimeleri taklit edemiyor. Deepfake dediğimiz derin sahtelik videolarında gözlerin hareketlerini de takip etmek gerekiyor. İnsanların gözlerini doğal davranışı bellidir. Gözlerdeki davranış doğal mı, kirpik kaşlar doğal oynuyor mu? Sahte videolar yavaşlayınca saçmalamaya başlıyor. Görüntüler tuhaflaşıyor. Dudak hareketleri yüz, el, kol değişmeye başlıyor. Yazılım, yapay zeka aynı bıçak ve ateş gibidir. Binlerce faydası var ama bıçağı başka amaçla kullanmaya başladığınızda zararları var. Ateşin birçok faydası var ama bir yerleri de yakmamak lazım. Yapay zeka harikadır, yazılım çok güzeldir birçok kişinin, birçok firmanın hayatını kolaylaştırıyor ama bir de zarar tarafı var. Uyanık olmak lazım'  dedi.

Doç. Dr. Mehmet Zeki Konyar, 'Karşımıza çıkan böyle videolar olduğunda kesinlikle yetkililere bildirelim. Bilişim Teknolojileri ve İletişim Kurumu'nun ihbar hattı var. Vatandaşlarımızın o ihbar hattı ile iletişime geçerek, bu güvenli olmayan ya da şüpheli olan videoları, işlemleri bildirmeleri gerekiyor' diye konuştu.

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *
DEM Parti Ankara eş başkan adayları belli oldu

DEM Parti Ankara eş başkan adayları belli oldu