OpenAI, dezenformasyon araştırmacıları için “deepfake” dedektörünü piyasaya sürdü

FreeDoom

New member
Uzmanlar, yapay zeka tarafından oluşturulan görüntü, ses ve video içeriğinin sonbahar seçimlerini etkileyebileceği konusunda uyarırken, OpenAI, kendi popüler görüntü oluşturucusu DALL-E tarafından oluşturulan içeriği tespit etmek için bir araç yayınlıyor. Ancak tanınmış AI start-up'ı, bu aracın önümüzdeki aylarda ve yıllarda sözde deepfake'lerle mücadele etmek için ihtiyaç duyulanın yalnızca küçük bir kısmını temsil ettiğini kabul ediyor.

Salı günü OpenAI, yeni deepfake dedektörünü küçük bir grup dezenformasyon araştırmacısıyla paylaşacağını, böylece aracı gerçek dünyadaki durumlarda test edebileceklerini ve onu iyileştirmenin yollarını bulmaya yardımcı olabileceklerini söyledi.

Güvenlik ve politikaya odaklanan OpenAI araştırmacısı Sandhini Agarwal, “Bunun amacı yeni araştırmalara yol açmaktır” dedi. “Bu gerçekten gerekli.”


OpenAI, yeni dedektörünün, görüntü oluşturucunun en son sürümü olan DALL-E 3 tarafından oluşturulan görüntülerin yüzde 98,8'ini doğru bir şekilde tanımlayabildiğini söyledi. Ancak şirket, aracın Midjourney ve Stability gibi diğer popüler oluşturucular tarafından oluşturulan görüntüleri tanıyacak şekilde tasarlanmadığını söyledi.


Bu tür deepfake dedektörleri olasılıklara dayalı olduğundan asla mükemmel olamaz. Diğer birçok şirket, kar amacı gütmeyen kuruluş ve akademik laboratuvar gibi OpenAI de sorunla başka yollarla mücadele etmek için çalışıyor.

Teknoloji devleri Google ve Meta gibi şirket de, dijital içerik için referanslar geliştirmeye yönelik bir proje olan Coalition for Content Provenance and Authenticity'nin (C2PA) yönetim kuruluna katılıyor. C2PA standardı, görseller, videolar, ses klipleri ve diğer dosyalar için bunların ne zaman ve nasıl oluşturulduğunu veya değiştirildiğini (AI dahil) gösteren bir tür “beslenme etiketi”dir

OpenAI ayrıca, herhangi bir anda kolayca tanımlanabilmeleri için AI tarafından oluşturulan seslere “filigran” eklemenin yollarını geliştirdiğini de söyledi. Şirket, bu filigranların kaldırılmasını zorlaştırmayı umuyor.

OpenAI, Google ve Meta gibi şirketler tarafından desteklenen yapay zeka sektörü, ürünlerinin oluşturduğu içerikten sorumlu olma konusunda giderek artan bir baskı altında. Uzmanlar, sektöre, kullanıcıların yanıltıcı ve kötü amaçlı materyal üretmesini engelleme ve bunların kökenini ve dağıtımını takip edecek yollar sağlama çağrısında bulunuyor.


Dünya çapında önemli seçimlerle dolu bir yılda, yapay zeka içeriğinin kökenini izlemenin yolları yönündeki çağrılar giderek çaresizleşiyor. Son aylarda, Slovakya, Tayvan ve Hindistan gibi ülkelerdeki görsel ve işitsel materyaller siyasi kampanyaları ve oylamaları şimdiden etkiledi.

OpenAI'nin yeni deepfake dedektörü sorunun engellenmesine yardımcı olabilir ancak çözmez. Bayan Agarwal'ın belirttiği gibi, deepfake'lere karşı mücadelede “her derde deva yoktur.”
 
Üst