Yapay Zeka ve Çocuk Güvenliği Kırmızı Alarmda: Başsavcılardan OpenAI'ye Sert Uyarı

Haber Merkezi

08 September 2025, 09:40 tarihinde yayınlandı

OpenAI'ye Çocuk Güvenliği Uyarısı: İki Trajik Olay Sonrası Başsavcılar Harekete Geçti

Yapay zeka devi OpenAI, çocukların ve gençlerin platformlarını kullanırken karşılaştığı riskler nedeniyle ABD'li eyalet başsavcılarının hedefinde. Kaliforniya Başsavcısı Rob Bonta ve Delaware Başsavcısı Kathy Jennings, iki trajik olayın ardından şirkete gönderdikleri açık mektupla, 'çocuklara yönelik zarara tolerans gösterilmeyeceğini' net bir dille ifade etti.

Bu uyarı, Bonta'nın da aralarında bulunduğu 45 başsavcının, yapay zeka sohbet robotları ile çocuklar arasında geçtiği iddia edilen cinsel içerikli uygunsuz etkileşim raporları üzerine 12 önde gelen yapay zeka şirketine mektup göndermesinden sadece bir hafta sonra geldi. Görünen o ki, bu ilk adım yeterli olmadı.

Trajik Olaylar Bardağı Taşıran Son Damla Oldu

Başsavcıların endişelerini bir üst seviyeye taşıyan ve bu sert mektubun kaleme alınmasına neden olan iki yıkıcı olay oldu. Bonta ve Jennings'in mektubunda, bu durum şu sözlerle vurgulandı:

'Bu mektubun yayınlanmasından sonra, Kaliforniyalı bir gencin bir OpenAI sohbet robotuyla uzun süreli etkileşimlerin ardından intihar ederek hayatını kaybettiğini ve Connecticut'ta benzer şekilde rahatsız edici bir cinayet-intihar vakası yaşandığını öğrendik. Mevcut olan güvenlik önlemleri her ne ise, işe yaramadığı ortada.'

Bu ifadeler, mevcut güvenlik protokollerinin gençleri korumada ne denli yetersiz kaldığını ve durumun ciddiyetini gözler önüne seriyor. Başsavcılar, yapay zeka modellerinin öngörülemeyen ve tehlikeli sonuçlar doğurabileceği konusunda derin endişeler taşıyor.

Başsavcıların endişeleri, sadece büyük modellerle sınırlı kalmıyor. Yapay zeka ile duygusal bağ kurmayı vadeden pazarın ne kadar tehlikeli bir hale geldiğinin en güncel örneklerinden biri, kişiselleştirilmiş bir 'sırdaş' olmayı hedefleyen yapay zeka dostu Dot uygulamasının kepenk indirmesi oldu. Bu tür uygulamaların, özellikle zihinsel olarak hassas kullanıcılar için ne kadar kırılgan ve potansiyel olarak riskli olabileceği, sektördeki yasal ve etik baskıyı giderek artırıyor.

Bu öngörülemeyen sonuçların temel nedenlerinden biri, modellerin kulağa makul gelen ancak tamamen yanlış veya uydurma bilgiler üretmesi olarak tanımlanan bir eğilime sahip olmasıdır. Bu durum, özellikle hassas konularda genç bir kullanıcıya yanlış tavsiyeler verilmesi gibi ciddi riskler taşır. OpenAI'ın kendi araştırması, bu yapay zeka halüsinasyonlarının, modellerin doğruyu söylemek yerine en olası cevabı tahmin etmeye teşvik edildiği yanlış değerlendirme sistemlerinden kaynaklandığını öne sürmektedir.

Kâr Amacı Güden Yapı, Güvenlik Misyonunu Gölgeliyor mu?

Başsavcılar sadece mevcut güvenlik açıklarını değil, aynı zamanda OpenAI'nin kurumsal yapısındaki değişimi de sorguluyor. Şirketin kâr amacı güden bir yapıya dönüşme planlarını inceleyen Bonta ve Jennings, bu dönüşümün kâr amacı gütmeyen orijinal misyonuyla çelişip çelişmediğini araştırıyor. Mektupta, bu misyonun 'yapay zekanın güvenli bir şekilde konuşlandırılmasını sağlamak' ve 'çocuklar da dahil olmak üzere' tüm insanlığa fayda sağlayacak yapay genel zeka (AGI) inşa etmek olduğu hatırlatılıyor.

Başsavcılar, fayda sağlama aşamasına geçmeden önce zararı önleyecek yeterli güvenlik önlemlerinin alınması gerektiğinin altını çiziyor ve sektörün genel olarak güvenlik konusunda olması gereken noktada olmadığını belirtiyorlar.

Nexus Analizi: Tepkisel Önlemler Yeterli mi?

OpenAI'nin 'ebeveyn kontrolleri' ve 'ebeveynleri uyarma' gibi özellikler üzerinde çalıştığını belirtmesi önemli bir adım. Ancak eleştirel bir bakış açısıyla, bu tür önlemlerin genellikle 'tepkisel' (reaktif) olduğunu ve sorunun kökenine inmediğini söylemek mümkün. Asıl sorun, yapay zeka modellerinin temel algoritmalarının nasıl çalıştığı ve bu 'kara kutu' sistemlerin çocuklar için nasıl öngörülemeyen riskler yaratabildiğidir. Güvenliği sonradan eklenen bir özellik olarak değil, tasarımın en başından itibaren bir temel ilke ('safety by design') olarak benimsemek, sektörün önündeki en büyük zorluklardan biri. Başsavcıların bu müdahalesi, tüm yapay zeka endüstrisi için daha katı düzenlemelerin ve yasal sorumlulukların habercisi olabilir.

OpenAI Cephesinden Yanıt: 'Güvenlik En Yüksek Önceliğimiz'

Suçlamaların odağındaki OpenAI ise durumun ciddiyetinin farkında olduklarını belirtiyor. OpenAI yönetim kurulu başkanı Bret Taylor yaptığı açıklamada, 'Bu trajediler karşısında kalbimiz kırık ve ailelerin acısını paylaşıyoruz. Güvenlik en yüksek önceliğimizdir ve dünya genelindeki politika yapıcılarla yakın bir şekilde çalışıyoruz.' dedi.

Şirket, gençleri korumak için ebeveyn kontrollerini genişletme ve çocuklarının ani bir sıkıntı anında olduğunu ebeveynlere bildirme yeteneği üzerinde çalıştıklarını da ekledi. Bu adımlara ek olarak şirket, yapay zekanın 'kişiliğini' ve kullanıcılarla nasıl etkileşim kuracağını belirleyen 'Model Davranışı' ekibini yeniden yapılandırdığını duyurdu. Bu hamle, model davranışlarının ve güvenliğin artık sonradan eklenen bir özellik değil, geliştirme sürecinin temel bir parçası olarak ele alındığını gösterme çabası olarak yorumlanıyor. Yeniden yapılanma, model davranışları üzerindeki artan yasal ve toplumsal baskının bir sonucu olarak görülüyor.

Ancak başsavcılar, OpenAI'den mevcut güvenlik önlemleri ve yönetişim hakkında daha fazla bilgi talep ettiklerini ve gerekli görülen yerlerde derhal düzeltici tedbirler alınmasını beklediklerini açıkça belirtti.

Kaynak: Bu haberin oluşturulmasında TechCrunch'ta yayınlanan orijinal makaleden yararlanılmıştır.