OpenAI, Sora için yeni kontroller eklediğini duyurdu

OpenAI, kullanıcıların kendi yapay zeka ikizlerini daha sıkı bir şekilde kontrol edebilmesini sağlayan yeni güncellemeyi Sora uygulamasına ekledi. Sora, kullanıcıların AI tarafından üretilen videolarını paylaşabildiği ve tıpkı bir “deepfake TikTok” platformu gibi işleyen bir uygulama olarak öne çıkmıştı. 10 saniyelik videoların oluşturulduğu platformda, yalnızca kullanıcıların kendi görüntüleri değil, başkalarının görüntüleri ve sesleri de yer alıyor. OpenAI bu sanal görünümleri “cameo” olarak adlandırıyor ancak eleştirmenler bunun internet üzerinde potansiyel bir yanlış bilgi felaketine yol açabileceğini belirtiyor.
AI ikiziniz için daha söz hakkı
OpenAI’ın Sora ekibinden sorumlu Bill Peebles, yeni kontroller sayesinde kullanıcıların AI ikizlerinin uygulamada nasıl kullanılabileceğini sınırlandırabileceğini açıkladı. Örneğin, kullanıcılar AI versiyonlarının politik içerikli videolarda görünmesini engelleyebilecek, belirli kelimeleri söylemesini yasaklayabilecek veya kişisel tercihlerine göre sınırlamalar koyabilecek. Bu arada OpenAI çalışanı Thomas Dimson, kullanıcıların sanal ikizlerine kişisel dokunuşlar ekleyebileceğini de belirtti.
Şirketin getirdiği önlemler olumlu olsa da kesinlikle aşılamaz yapıda değiller. Benzer önlemlerin aşıldığını AI dünyasında çokça gördük. Bu arada Sora’nın mevcut güvenlik önlemlerinden biri olan filigranın da kullanıcılar tarafından aşıldığını belirtelim. Peebles, şirketin filigran sistemini geliştirmek için çalışmalar yürüttüğünü söylüyor.
Başlangıçta sunulan cameo kontrolleri, yalnızca “onaylı kişiler”, “arkadaşlar” veya “herkes” gibi genel seçeneklerle sınırlıydı ve bu durum platformda ciddi sorunlara yol açtı. Örnek olarak, OpenAI CEO’su Sam Altman’ın görüntüleri, izinsiz şekilde komik veya absürt videolarda kullanıldı; kendisi hırsızlık yaparken, rap yaparken veya ölü bir Pikachu’yu ızgarada pişirirken gösterildi.








