OpenAI'den SoraYapay zeka fotogerçekçi videolar yaratıyor

Sora, metinden videoya olarak adlandırılan bir programdır. OpenAI bu sayfada Sora'nın tam işlevselliği hakkında bilgi vermektedir. Sora'nın OpenAI'nin ChatGPT'sine benzer bir prensibe dayandığını göstermektedir. Yapay zeka metin üreticisi ChatGPT, kelimeleri daha küçük birimlere ("belirteçler" olarak adlandırılır) ayırarak bunlardan yeni metinler üretir. Bu, uzun bir süre boyunca büyük miktarda metinle eğitim gerektirir. Sora da büyük miktarda veri ile eğitilmiştir, ancak metinle değil, videolarla. Bu videolar da programın uzun bir eğitim döneminden sonra yeni videolar üretebileceği daha küçük parçalara ("yamalar" olarak adlandırılır) ayrılmıştır.
Üretken dil modeli ChatGPT'nin 2022 sonunda piyasaya sürülmesinde olduğu gibi, birçok kullanıcı yapay olarak üretilen içeriğin yüksek kalitesi konusunda özellikle hevesli. Sora web sitesinde, bazı videoların ne kadar aldatıcı bir şekilde gerçek göründüğüne dair bir fikir edinebilirsiniz. Yine de OpenAI'nin kendisi Sora'nın hala sorun yaşadığı bazı noktalar olduğuna işaret ediyor ve bu konuda örnekler veriyor. Örneğin, videolardan birinde fitilinde iki alev yanan bir mum gösteriliyor. Sora henüz halka açık olmadığı için bu tür hataların istisna mı yoksa kural mı olduğu henüz güvenilir bir şekilde değerlendirilemiyor.
Sora'nın güvenliği ne olacak?
OpenAI, yapay zekanın yanlış ellerde de büyük zararlara yol açabileceği konusunda artık biraz daha duyarlı görünüyor. Bu nedenle şirket, Sora halka sunulmadan önce birkaç önemli güvenlik adımının atılacağını garanti ediyor. Bu nedenle Sora başlangıçta yalnızca Sora'yı test edebilecek kapalı bir kullanıcı grubu tarafından kullanılabilecek. OpenAI'ye göre bu grupta yanlış bilgilendirme, nefret dolu içerik ve önyargı alanlarında uzmanlar da yer alıyor.
Ayrıca Sora'nın kötüye kullanımını önlemek için teknik yöntemler de kullanılacak. Örneğin OpenAI, bir videonun Sora ile oluşturulup oluşturulmadığını geriye dönük olarak tespit edebilecek bir yöntem üzerinde çalışıyor. Şirket ayrıca görüntüler için yapay zeka üreten DALL-E 3'te halihazırda kullanılan güvenlik yöntemlerini de kullanıyor. Örneğin, girilen metinler kontrol ediliyor ve OpenAI'nin kullanım koşullarını ihlal ediyorsa reddediliyor. Bu sayede aşırı şiddet, cinsel içerik, ünlüler ya da korunan markalar ve diğer sorunlu içeriklerin tasvir edilmesinin önüne geçilmesi amaçlanıyor. Oluşturulan videolar da kullanıcılara gösterilmeden önce otomatik olarak tekrar kontrol edilecek. Bu önlemlere ve sivil toplumla diyalog sözü verilmesine rağmen (OpenAI politikacıları, eğitimcileri ve sanatçıları örnek olarak gösteriyor) OpenAI, insanların yeni teknolojiyi nasıl kullanacaklarını tam olarak tahmin etmenin imkansız olduğuna dikkat çekiyor.
Metinden videoya programlardan ne gibi tehlikeler doğabilir?
- Yanlış bilgilendirme ve manipülasyon: Metin aracılığıyla fotogerçekçi video içeriği oluşturma yeteneği, yanlış bilgilendirme ve manipüle edilmiş içeriğin yayılmasını kolaylaştırabilir. Yapay videoların tanınması zor veya imkansız olursa, görsel medyaya olan güven sarsılabilir.
- Gizlilik ve veri koruma: Sora gibi programlar önemli veri koruma sorunlarına yol açabilir. Bu durum özellikle kişisel veya telif hakkıyla korunan içeriklerin izinsiz olarak oluşturulması ve dağıtılması halinde geçerlidir. Ayrıca, insanların sahte videolarının oluşturulması halinde mahremiyetlerinin ihlal edilebileceği de düşünülebilir.
- Kimlik hırsızlığı ve suistimal: metinden videoya programları kötü niyetli kişiler tarafından sahte kimlikler veya dolandırıcılık amacıyla kullanılan manipüle edilmiş videolar oluşturmak için kullanılabilir. Bu durum kimlik hırsızlığı ve itibar zedelenmesi gibi ciddi yasal ve sosyal sorunlara yol açabilir.
- Sosyal etki ve etik: Sora gibi metinden videoya teknolojilerinin yaygın olarak benimsenmesi sosyal normlarda ve etik standartlarda bir değişime yol açabilir. Özgünlük, içerik oluşturmada hesap verebilirlik ve dijital kimlikler üzerinde kontrol konuları giderek daha önemli hale gelecek ve dikkatli bir değerlendirme gerektirecektir.





