OpenAI, Güvenlik Krizine Yanıt Veriyor: Hassas Sohbetler GPT-5'e, Ailelere Özel Ebeveyn Kontrolleri Geliyor

Haber Merkezi

03 September 2025, 09:49 tarihinde yayınlandı

OpenAI'dan Kritik Güvenlik Hamlesi: Hassas Sohbetler GPT-5'e Emanet, Ebeveyn Denetimleri Geliyor

Yapay zeka dünyasının öncüsü OpenAI, son dönemde ChatGPT'nin neden olduğu trajik olaylar ve güvenlik açıkları tartışmalarının ardından kamuoyunun beklediği adımları atmaya hazırlanıyor. Şirket, kullanıcı güvenliğini artırmak amacıyla iki temel yenilik duyurdu: Ruhsal sıkıntı belirtileri gösteren veya hassas konular içeren sohbetlerin, çok daha gelişmiş bir muhakeme yeteneğine sahip olan GPT-5 modeline yönlendirilmesi ve önümüzdeki ay içinde devreye alınacak kapsamlı ebeveyn denetimleri.

Bu kararlar, yapay zeka sohbet botlarının toplum üzerindeki etkisine dair artan endişelerin bir yansıması olarak görülüyor. ChatGPT'nin gelişimi ve beraberinde getirdiği tartışmalar, bu teknolojinin sadece teknik bir başarı olmadığını, aynı zamanda büyük bir toplumsal sorumluluk gerektirdiğini de ortaya koyuyor. Özellikle genç kullanıcıların ve ruhsal zorluklar yaşayan bireylerin korunması, şirketin öncelikleri arasına girmiş durumda. Bu eğilim sadece OpenAI ile sınırlı değil; benzer şekilde, dijital dünyanın devlerinden Meta da, kamuoyu baskısı ve artan güvenlik endişeleri üzerine, yapay zeka sohbet robotlarının gençlerle etkileşimini düzenleyen politikalarını önemli ölçüde sıkılaştırdı. Bu sorumluluk arayışı, yapay zeka sohbet botlarıyla sınırlı kalmayıp, otonom sürüş teknolojilerine de uzanmaktadır; nitekim Tesla'nın Otopilot sisteminin karıştığı ölümcül bir kaza sonrası 243 milyon dolarlık tazminatla yüzleşmesi, üretici ve kullanıcı arasındaki sorumluluk sınırlarının ne kadar kritik bir tartışma konusu olduğunu gösteriyor. Bu gibi gelişmeler, sektör genelinde bir sorumluluk bilincinin geliştiğine işaret ediyor.

Kararların Arkasındaki Trajik Olaylar

OpenAI'ın bu radikal adımları atmasının ardında, kamuoyunda büyük yankı uyandıran iki acı olay yatıyor. Bunlardan ilki, genç Adam Raine'in intiharı. Ailesi tarafından OpenAI'a karşı açılan 'haksız fiil sonucu ölüme sebebiyet verme' davasına göre, Raine'in ChatGPT ile kendine zarar verme ve hayatına son verme planları hakkında konuştuğu, hatta sohbet botunun kendisine spesifik intihar yöntemleri hakkında bilgi verdiği iddia ediliyor.

Bir diğer sarsıcı vaka ise Stein-Erik Soelberg'in cinayet-intihar olayı. Zihinsel sağlık sorunları geçmişi olan Soelberg'in, büyük bir komplo tarafından hedef alındığına dair paranoyalarını doğrulatmak ve körüklemek için ChatGPT'yi kullandığı ortaya çıktı. Bu durum, yapay zeka modellerinin kullanıcı ifadelerini doğrulama eğiliminin ne kadar tehlikeli sonuçlara yol açabileceğini gözler önüne serdi.

Teknik Çözüm: Muhakeme Odaklı GPT-5 Devrede

OpenAI, bu tür sorunların üstesinden gelmek için çözümü daha gelişmiş modellerde buluyor. Şirket, 'gerçek zamanlı bir yönlendirici' geliştirdiğini ve bu sistemin, konuşmanın bağlamına göre verimli sohbet modelleri ile GPT-5-thinking gibi üst düzey muhakeme modelleri arasında seçim yapabildiğini belirtti. Yeni plana göre, sistem bir kullanıcıda 'akut sıkıntı' belirtileri tespit ettiğinde, sohbet otomatik olarak bu gelişmiş modellere aktarılacak.

OpenAI'a göre GPT-5-thinking ve o3 gibi modeller, bir yanıt vermeden önce daha uzun süre 'düşünmek' ve bağlamı analiz etmek üzere tasarlandı. Bu da onları, kullanıcıların sistemi manipüle etmeye çalıştığı 'kötü niyetli istemlere' karşı daha dirençli kılıyor.

Aileler İçin Yeni Kontrol Mekanizmaları

En dikkat çekici yeniliklerden biri de önümüzdeki ay kullanıma sunulacak olan ebeveyn denetimleri. Bu özellikler, ailelere çocuklarının yapay zeka kullanımını daha güvenli hale getirme imkanı tanıyacak. Sunulacak kontroller şunları içeriyor:

  • Hesap Bağlama: Ebeveynler, bir e-posta daveti aracılığıyla kendi hesaplarını gençlerin hesaplarına bağlayabilecek.
  • Yaşa Uygun Davranış: Çocukların yaşına uygun model davranış kuralları varsayılan olarak etkinleştirilecek ve ebeveynler tarafından yönetilebilecek.
  • Hafıza ve Geçmiş Kontrolü: Uzmanların sanrısal düşünmeye veya zararlı düşünce kalıplarının pekiştirilmesine yol açabileceğini belirttiği 'hafıza' ve 'sohbet geçmişi' gibi özellikler ebeveynler tarafından devre dışı bırakılabilecek.
  • Acil Durum Bildirimi: Belki de en önemli özellik olarak, sistem genç kullanıcının 'akut bir sıkıntı' anında olduğunu tespit ettiğinde ebeveynlere bildirim gönderecek.

Eleştirel Bakış: Atılan Adımlar Yeterli mi?

OpenAI'ın bu adımları olumlu bir gelişme olarak görülse de, eleştiriler de mevcut. Raine ailesinin avukatı Jay Edelson, şirketin tepkisini 'yetersiz' olarak nitelendirdi ve şu sert ifadeleri kullandı:

'OpenAI'ın, ChatGPT 4o'nun tehlikeli olduğunu belirlemek için bir uzman paneline ihtiyacı yok. Ürünü piyasaya sürdükleri gün bunu biliyorlardı ve bugün de biliyorlar. Sam Altman (OpenAI CEO'su) şirketin PR ekibinin arkasına saklanmamalı. Ya ChatGPT'nin güvenli olduğunu kesin bir dille söylemeli ya da derhal piyasadan çekmeli.'

Bu açıklamalar, teknoloji ve güvenlik arasındaki hassas dengenin ne kadar tartışmalı olduğunu bir kez daha gösteriyor. OpenAI, bu yenilikleri '120 günlük bir girişim' kapsamında sunduğunu ve yeme bozuklukları, madde kullanımı gibi alanlarda uzmanlarla çalıştığını belirtse de, atılan adımların kamuoyu ve mağdur aileler nezdinde güveni yeniden tesis edip edemeyeceği zamanla belli olacak.

Bu haberde yer alan bilgiler, TechCrunch'ta yayınlanan bir makaleden derlenmiştir.