OpenAI Sora'nın İlk Günü: Sosyal Medyada Terör Estiren Sam Altman Deepfake'leri ve Telif Hakkı Kargaşası

Haber Merkezi

02 October 2025, 09:14 tarihinde yayınlandı

OpenAI'ın Yeni Sosyal Medya Uygulaması Sora, Sam Altman Deepfake'leriyle Doldu: Felaket Kapıda mı?

Yapay zeka devi OpenAI, video üretimindeki başarısıyla adından söz ettiren Sora modelinin (Sora 2 ile desteklenen TikTok benzeri sosyal uygulaması Cameos) sosyal medya versiyonunu, davet usulü erken erişimle kullanıma sundu. Ancak bu platform, henüz 24 saat geçmeden, şaşırtıcı derecede gerçekçi ama bir o kadar da rahatsız edici içeriklerle doldu: Başrolde ise OpenAI CEO'su Sam Altman'ın deepfake versiyonları var. Şirket, bir yandan insanlığın yararına olacak genel yapay zekayı (AGI) geliştirmeyi hedeflerken, diğer yandan dünyanın en hızlı büyüyen tüketici teknolojisi şirketi olma yolunda ilerliyor; bu ticari hamle, şirket içindeki araştırmacılar arasında da misyon gerilimine neden oldu. Konuya ilişkin detaylı analizi ve çalışanların eleştirilerini Nexus Haber'de inceleyebilirsiniz.

Sora Akışında Sam Altman İstilası

Sora'nın 'Sizin İçin' akışında dolaşan kullanıcılar, korkutucu derecede doğal görünen Sam Altman videolarına rastlıyor. Bir videoda, yapay zeka Altman, akıllı telefon ekranları takılmış pembe domuzların bulunduğu bir çiftlikte duruyor ve izleyiciye doğrudan bakarak “Domuzcuklarım mamalarının tadını çıkarıyor mu?” diye soruyor. Başka bir videoda ise Altman, Pikachu ve Bulbasaur gibi popüler Pokémon karakterlerinin arasında durup kameraya “Umarım Nintendo bizi dava etmez” diyor.

Bu videoların absürtlüğü, Sora'nın inanılmaz derecede gelişmiş fizik modelleme yeteneğiyle birleşince ortaya çıkan gerçekçilik ürkütücü boyutlara ulaşıyor. Kullanıcılar, Altman'ı McDonald's tezgahının arkasında bir müşteriye bağırırken, Starbucks'ta Pikachu'ya servis yaparken veya Target'tan Nvidia GPU'ları çalmaya çalışırken gösteren sayısız içerik üretti.

Değer Katma: Sora Neden Bu Kadar Tehlikeli?

Sora'yı Meta'nın benzer yapay zeka denemelerinden ayıran en kritik fark, ürettiği videoların fotogerçekçiliğe ulaşmasıdır. Yapay zeka içeriği ne kadar gerçekçi olursa, dezenformasyon, zorbalık ve kötü niyetli kullanımlar için bir vektör haline gelmesi o kadar kolaylaşır. OpenAI, güvenlikten bahsetse de, kullanıcı dostu bir araçla bu denli gerçekçi deepfake'lerin üretimine izin vermek başlı başına etik bir sorumluluk sorunudur ve şirketin kâr amacı gütmeyen temel misyonuyla çelişki yaratmaktadır.

Telif Hakkı ve Etik İhlalleri: Opt-Out Sistemi

Sora kullanıcılarının en çok dikkat çektiği konulardan biri, uygulamanın telif haklarına karşı ne kadar pervasız davrandığı. Uygulama, kısıtlı bölgelerinde ünlülerin veya karakterlerin deepfake'lerini engellediğini iddia etse de, akış Mario'nun esrar içtiği, Naruto'nun Krabby Patties sipariş ettiği videolarla dolu.

Sora’nın, içerik üreticilerinin telif hakkı koruması için tipik “açıkça izin verme (opt-in)” yaklaşımını tersine çevirerek, telif hakkı sahiplerinin içeriklerinin kullanılmaması için “reddetme (opt-out)” zorunluluğu getirdiği bildiriliyor. Bu yaklaşım, yasal açıdan oldukça tartışmalı ve içerik dünyasında büyük bir tepkiye yol açabilir.

Biyometrik Veri ve Sam Altman'ın Cesur Hamlesi

Sora’nın temel özelliklerinden biri, kullanıcıların biyometrik verilerini yükleyerek kendilerine ait “cameo” (deepfake karakter) oluşturabilmeleri. Bu işlemde, kullanıcılardan belirli sayıları okurken kafalarını yanlara çevirmeleri isteniyor. Kullanıcılar, kendi deepfake'lerinin kimler tarafından üretilebileceğini kontrol edebiliyor (sadece ben, onayladığım kişiler, karşılıklı takipçiler veya herkes). Daha da önemlisi, kullanıcılar Cameos erişimlerini arkadaşlarıyla paylaşarak, onların da kendilerini içeren (çoklu kişilerin yer aldığı dahil) videolar üretmesine izin verebiliyor. Bu durum, özellikle rıza dışı (non-consensual) deepfake içerik üretimi potansiyeli nedeniyle güvenlik ve etik endişeleri beraberinde getiriyor.

Sam Altman, kendi cameosunu herkese açık hale getirmiş durumda. Bu hamle, bazı uzmanlar tarafından, Altman'ın ürününün tehlikeli olmadığını gösterme çabası olarak yorumlansa da, kullanıcılar hemen bu durumu suistimal ederek uygulamanın etik sınırlarını sorgulayan videolar üretmeye başladılar.

Gizlilik ve Tahmin Yeteneği

Deneyler, Sora'nın sadece biyometrik verileri değil, aynı zamanda kullanıcıların IP adresleri aracılığıyla elde edilen konumlarını, geçmiş gönderi etkileşimlerini ve hatta (istenirse kapatılabilen) ChatGPT konuşma geçmişlerini kullanarak kişiselleştirilmiş deepfake senaryoları üretebildiğini gösteriyor. Örneğin, bir kullanıcı kendi deepfake'ini oluşturduğunda, uygulama konum bilgisine dayanarak onun tuttuğu spor takımını tahmin edip bu konuda konuşan bir video oluşturabiliyor. Bu, yapay zekanın kullanıcı hakkında tahminler yapma ve manipülasyon potansiyelini gözler önüne seriyor.

Şeytanın Avukatı: Peki Ya Güvenlik Önlemleri?

OpenAI, Sora'yı tanıtırken güvenlik taahhüdünü sıkça vurguluyor. Uygulamada ebeveyn kontrolleri ve kullanıcıların kendi cameoları üzerindeki kontrolü gibi özellikler bulunuyor. Hatta, 'cameo' oluştururken tank top gibi 'uygunsuz' görünen kıyafetler giyen kullanıcıların yüklemesi dahi reddedilebiliyor. Uygulama, ara sıra kullanıcıya “Sora kullanmak ruh halinizi nasıl etkiliyor?” diye soran ekranlar çıkararak ‘güvenliği benimsediğini’ iddia ediyor.

Öte yandan, CEO Sam Altman, tüketici ürünlerine bu kadar agresif yönelmelerinin nedenini, temel araştırmaları ve genel yapay zekayı (AGI) inşa edebilmek için gereken devasa sermaye ihtiyacıyla açıklıyor. Altman, bu ticari başarının, gelecekteki modeller için 500 milyar dolar harcamayı hedefleyen ve Yüksek Bant Genişlikli Bellek (HBM) çipleri tedarik etmeyi içeren iddialı altyapı girişimi olan Stargate Projesi gibi büyük ölçekli bilimsel girişimleri finanse etmede kritik rol oynadığını belirtiyor. Ancak OpenAI'ın ticari rekabet baskısı altında güvenlikten taviz verme eğilimi, yasal düzenlemelerin önemini artırıyor. Örneğin, Kaliforniya'da Vali Newsom tarafından imzalanarak yürürlüğe giren SB 53 yasası, büyük YZ laboratuvarlarının güvenlik prosedürlerini kamuya açıklamasını, ihbarcıları korumasını ve güvenlik olaylarını bildirmesini zorunlu kılıyor. Bu yasa, özellikle kritik altyapılara siber saldırı veya biyo-silah üretme gibi felaketle sonuçlanabilecek riskleri nasıl önlediğini gösteren protokolleri şeffaflıkla sunmasını talep ediyor. Şirket, daha önce bir rakibin koruyucu önlemler olmaksızın yüksek riskli bir sistem yayınlaması durumunda kendi güvenlik gereksinimlerini "ayarlayabileceğini" (gevşetebileceğini) kamuoyuyla paylaşmıştı; bu durum, Sora'nın potansiyel tehlikelerine karşı alınacak önlemlerin ne kadar kırılgan olduğunu gösteriyor. Bu yasa ve YZ düzenlemeleri hakkında detaylı bilgiye Nexus Haber'den ulaşabilirsiniz.

Ancak eleştirel bakış açısıyla bakıldığında, bu yüzeysel önlemler, deepfake yayılımının küresel çapta yaratacağı tehlikenin yanında yetersiz kalıyor. Kullanıcılar şimdiden kısıtlamaları aşmanın yollarını bulmuş durumda. Örneğin, gerçek kişilerin deepfake'lerini üretmek yasak olsa da, Abraham Lincoln gibi ölü tarihi figürler, güncel politik mesajları iletmek için kullanılabiliyor. Bu durum, Sora'nın tam halka açılmasıyla birlikte dezenformasyon ve manipülasyonun patlama yapma ihtimalini güçlendiriyor.

OpenAI’ın daha önce ChatGPT ile ruh sağlığı krizlerine katkıda bulunmakla suçlanması ve hatta intihara teşvik iddialarıyla açılan davalarla yüzleşmesi, Sora'nın potansiyel risklerini artırıyor. Eğer bu araç, siyasi deepfake'lerden (Donald Trump'ın paylaştığı ırkçı videolar gibi) çok daha ileri seviyede ve kolay erişilebilir hale gelirse, dijital felaket kaçınılmaz olabilir.

Kaynak: Bu haber, OpenAI'ın yeni sosyal medya uygulaması Sora'nın ilk gün izlenimlerine dair detaylı bir analiz sunan TechCrunch makalesinden derlenmiştir.