Teknoloji

Yapay Zeka ile Gerçekçi Sahte Videolar Üretilebilir: Uzmanlardan Kritik Uyarı

SODİGEM) Uzmanı Dr. Öğr. Üyesi Serap Uğur, "OmniHuman-1" adlı yapay zeka uygulamasının etik ve güvenlik riskleri taşıdığına dikkat çekti.

Uğur, [alinti_metin] "Bu model sosyal medya hesaplarında paylaşılan tek bir görsel bile kullanılarak sahte videolar üretilebilir." [/alinti_metin] diyerek mahremiyet ihlallerine ve kimlik sahtekarlıklarına karşı uyarıda bulundu.

ü

Deep Fake Teknolojisine Karşı Önlemler Gerekli

Yapay zeka destekli bu modelin, gerçekçi insan videoları üretebilmesi nedeniyle kötü niyetli kullanımlara açık olduğunu belirten Uğur, [alinti_metin] "OmniHuman-1'in gerçekçi insan videoları üretme yeteneği, kötü niyetli kişiler tarafından yanıltıcı veya sahte içerik oluşturmak için kullanılabilir." [/alinti_metin] ifadelerini kullandı. Bu tür yapay zeka uygulamalarının denetlenmesi için Avrupa’daki Genel Veri Koruma Tüzüğü (GDPR) gibi yasal düzenlemelerin yanı sıra dijital kimlik doğrulama sistemlerinin geliştirilmesi ve Deep Fake tespit programlarının güçlendirilmesi gerektiğini vurguladı.

ü

Medya ve Haber Sektörü Risk Altında

Uğur, [alinti_metin] "Yapay zeka haber sunucuları ile 7/24 kesintisiz üstelik aynı anda farklı dillerde haber sunulabilir. Ancak bu, dezenformasyon riskini artırabilir ve medya sektörünü olumsuz etkileyebilir." [/alinti_metin] diyerek, bu modelin haber, sinema ve eğitim gibi sektörlerde dönüşümlere yol açabileceğini belirtti.

ü

OmniHuman-1’in Kullanım Alanları ve Riskler

  • Medya: Yapay zeka haber sunucularıyla kesintisiz yayın
  • Sinema: Vefat eden oyuncuların dijital olarak canlandırılması
  • Eğitim: Sanal öğretmenlerle kişiselleştirilmiş eğitim içerikleri
Ancak bu gelişmeler, iş kayıpları, etik sorunlar ve güvenlik tehditleri gibi riskleri de beraberinde getiriyor. Uzmanlar, etik ihlallerin önüne geçmek için devletlerin ve platformların yapay zeka ile üretilen içeriklere bir "etiketleme" zorunluluğu getirmesi gerektiğini vurguluyor.

ü

[ilgili_haberler][/ilgili_haberler]