Uğur, [alinti_metin] "Bu model sosyal medya hesaplarında paylaşılan tek bir görsel bile kullanılarak sahte videolar üretilebilir." [/alinti_metin] diyerek mahremiyet ihlallerine ve kimlik sahtekarlıklarına karşı uyarıda bulundu.
ü
Deep Fake Teknolojisine Karşı Önlemler Gerekli
Yapay zeka destekli bu modelin, gerçekçi insan videoları üretebilmesi nedeniyle kötü niyetli kullanımlara açık olduğunu belirten Uğur, [alinti_metin] "OmniHuman-1'in gerçekçi insan videoları üretme yeteneği, kötü niyetli kişiler tarafından yanıltıcı veya sahte içerik oluşturmak için kullanılabilir." [/alinti_metin] ifadelerini kullandı. Bu tür yapay zeka uygulamalarının denetlenmesi için Avrupa’daki Genel Veri Koruma Tüzüğü (GDPR) gibi yasal düzenlemelerin yanı sıra dijital kimlik doğrulama sistemlerinin geliştirilmesi ve Deep Fake tespit programlarının güçlendirilmesi gerektiğini vurguladı.ü
Medya ve Haber Sektörü Risk Altında
Uğur, [alinti_metin] "Yapay zeka haber sunucuları ile 7/24 kesintisiz üstelik aynı anda farklı dillerde haber sunulabilir. Ancak bu, dezenformasyon riskini artırabilir ve medya sektörünü olumsuz etkileyebilir." [/alinti_metin] diyerek, bu modelin haber, sinema ve eğitim gibi sektörlerde dönüşümlere yol açabileceğini belirtti.ü
OmniHuman-1’in Kullanım Alanları ve Riskler
- Medya: Yapay zeka haber sunucularıyla kesintisiz yayın
- Sinema: Vefat eden oyuncuların dijital olarak canlandırılması
- Eğitim: Sanal öğretmenlerle kişiselleştirilmiş eğitim içerikleri
ü
[ilgili_haberler][/ilgili_haberler]
Muhabir: