Yapay zeka teknolojilerinin hızla gelişmesiyle birlikte, deepfake videolar, sahte ses kayıtları ve manipüle edilmiş görseller, küresel ölçekte yeni bir tehdit oluşturuyor. Sensity AI şirketinin araştırması, bu teknolojilerin savaşlarda ve seçimlerde bilgi savaşında nasıl kullanıldığını gözler önüne seriyor. Rusya-Ukrayna Savaşı'nda Ukraynalı asker ve siyasetçileri hedef alan deepfake videolar, teslim olmaya çağrıda bulunuyor veya savaş suçlarını itiraf ediyor gibi gösteriliyor. Benzer şekilde, Tayvan'da seçim dönemlerinde Çin kaynaklı yapay zeka içerikleri, karşıt görüşlü adayları hedef alarak sahte konuşmalar ve uydurma skandallar yayıyor. Japonya'da ise yapay zeka ile üretilmiş sahte doğal afet görüntüleri, kamuoyunda panik yaratmayı amaçlıyor. Bu durum, yapay zeka araçlarının kontrolsüz kullanımıyla ortaya çıkabilecek tehlikeleri gözler önüne seriyor. Bu gelişmeler ışığında, yapay zeka tabanlı manipülasyonların küresel bir tehdit haline geldiği ve acil önlemler gerektiği açıkça ortaya çıkıyor.
Yapay Zeka ile Oluşturulan İçeriklerin Tespit Edilmesindeki Zorluklar
Sensity AI'nin kurucu ortağı Francesco Cavalli, yapay zeka araçlarının gelişmesiyle birlikte gerçek ve sahte içerikleri ayırt etmenin giderek zorlaştığını belirtiyor. Düşük çözünürlüklü veya sıkıştırılmış görüntülerde, insan gözüyle tespitin zorlaştığına dikkat çeken Cavalli, özellikle yapay zeka ile üretilen seslerin neredeyse hiç fark edilemez hale geldiğini vurguluyor. Yüzdeki tutarsız ışıklandırmalar, aşırı pürüzsüz cilt dokusu, yapay göz kırpma ve ağız hareketleri, yapay zeka ile üretilmiş videoların belirtilerinden bazıları olarak gösteriliyor. Ancak Cavalli, gelişmiş yapay zeka araçlarıyla üretilen içeriklerin, eğitimli gözleri bile kolayca kandırabileceğini söylüyor. Midjourney ve Runway gibi araçların gelişmesiyle gerçek ve sahte içerik arasındaki çizgi iyice bulanıklaşmış durumda. Bu durum, yapay zeka teknolojilerinin kötüye kullanımına karşı etkin önlemler alınmasının ne kadar önemli olduğunu gösteriyor.
Yapay Zeka Destekli Propaganda ve Küresel Tehdit
Cavalli, Çin, Japonya ve Tayvan'daki inceledikleri vakalara dayanarak, yapay zeka destekli propagandanın deneysel bir tehdit olmadığını, aksine algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda aktif olarak kullanılan küresel bir silah olduğunu belirtiyor. Sahte haber siteleri ve sosyal medya reklamları, yapay zeka ile üretilmiş manipülatif içeriklerin yayılmasında başlıca kanallar olarak kullanılıyor. Örneğin, sahte basın toplantıları düzenleyen politikacılar ya da kamuoyunu manipüle etmek için paylaşılan sahte savaş görüntüleri gibi uygulamalar mevcut. Yapay zeka ile taklit edilen seslerin, özellikle dolandırıcılık amacıyla yüksek risk taşıdığı vurgulanıyor. Bir dolandırıcının, ABD Dışişleri Bakanı Marco Rubio'yu taklit ederek yüksek seviye yetkililerle iletişime geçtiği olay, bu riskin somut bir örneğini teşkil ediyor. Bu gelişmeler, yapay zeka tabanlı dezenformasyonun küresel bir sorun olduğunu ve çözüm için uluslararası iş birliğine ihtiyaç olduğunu ortaya koyuyor.
Proaktif Denetim ve Uluslararası İşbirliği
Teknoloji şirketleri ve sosyal medya platformlarının yapay zeka tabanlı görsel dezenformasyonla mücadele konusunda harekete geçmeleri gerekiyor. Platformların bu konuya odaklandığı, ancak çoğu platformun yapay zeka ile üretilmiş medyayı geniş ölçekte tespit edebilecek sağlam adli inceleme sistemlerine sahip olmadığı belirtiliyor. Cavalli, yapay zeka ile üretilmiş içeriklerin etiketlenmesinin doğru bir yaklaşım olmadığını, sosyal medya platformlarının deepfake dolandırıcılık reklamları için ağlarını denetimsiz kullandırmasına ağır yaptırımlar uygulanması gerektiğini savunuyor. Kullanıcı şikayetlerine dayanmak yerine, proaktif önlemler alınmasının zorunlu olduğuna dikkat çekiyor. Sensity'nin geliştirdiği sistemler, yüz manipülasyonunun belirlenmesi, tamamen yapay zeka ile üretilmiş görsellerin tespiti, taklit ses analizi ve adli incelemeyi kapsayan dört aşamalı bir analiz sürecinden geçiyor. Bu analizlerin raporları, resmi soruşturmalarda ve mahkemelerde kullanılabiliyor. Görsel medyaya olan güvenin azalmasıyla birlikte, yapay zeka ile üretilmiş görsel ve seslerin risklerine karşı farkındalığın artırılması, şirketlerin, gazetecilerin ve araştırmacıların adli araçlarla donatılması gerekiyor. "Görmek artık inanmak demek olmayacak" ifadesi, yapay zeka çağında bilgiye yaklaşımımızdaki değişimi özetliyor.