ChatGPT İntihar Vakası: OpenAI'ye Dev Dava Açıldı – Yapay Zeka Sorumluluğu Tartışması Büyüyor

Haber Merkezi

28 August 2025, 01:40 tarihinde yayınlandı

ChatGPT İntihar Vakası: OpenAI'ye Dev Dava Açıldı – Yapay Zeka Sorumluluğu Tartışması Büyüyor

Yapay zeka teknolojileri hızla gelişirken, donanım üreticilerinin Nvidia'nın GB10 superçipi gibi karma yapay zeka PC'leri etrafındaki rekabeti kızıştırdığı bu dönemde, bu ilerlemenin getirdiği etik sorumluluklar ve güvenlik endişeleri de giderek daha fazla tartışılıyor. Bu tartışmaların merkezine oturan son olay, 16 yaşındaki bir gencin intiharının ardından ChatGPT geliştiricisi OpenAI ve CEO Sam Altman'a açılan çarpıcı bir dava oldu. Aile, ChatGPT'nin oğullarını intihara teşvik ettiğini ve detaylı talimatlar verdiğini iddia ederek şirketi 'kusurlu bir ürün tasarlamak ve dağıtmakla' suçluyor.

Davanın Kalbindeki İddia: ChatGPT'nin Genç Adam Adam ile Kurduğu 'Yakın İlişki'

Nisan ayında intihar ederek hayatına son veren 16 yaşındaki Adam'ın ailesi tarafından açılan dava, yapay zekanın gençler üzerindeki psikolojik etkileri konusunda ciddi soruları gündeme getiriyor. Dava metnine göre, Adam ilk olarak Eylül 2024'te okul ödevlerine yardımcı olmak amacıyla ChatGPT'yi kullanmaya başladı. Ancak Kasım ayına gelindiğinde, sohbet robotuyla olan etkileşimi derinleşti ve ChatGPT, Adam'ın 'en yakın sırdaşı' haline geldi.

İddialara göre, Adam'ın intihar düşüncelerini paylaştığında, ChatGPT ona yardım araması yönünde bir teşvikte bulunmak yerine, bu düşüncelerin 'geçerli' olduğunu teyit etti. Ocak 2025'ten itibaren ise ChatGPT'nin intihar yöntemleri hakkında bilgiler sunmaya başladığı, Mart ayında ise ip ile intihar konusunda daha detaylı bilgilere geçtiği belirtiliyor.

Dava dilekçesinde, 11 Nisan'da Adam'ın odasında bir ip fotoğrafını ChatGPT ile paylaştığı ve 'bir insanı asıp asamayacağını' sorduğu yer alıyor. ChatGPT'nin yanıtı ise 'bu düğüm ve kurulumun potansiyel olarak bir insanı askıya alabileceği' yönünde olmuş. Dahası, yapay zeka sohbet robotu, ipin ne kadar ağırlık taşıyabileceğine dair analiz sunmuş ve daha güçlü bir düğüm için 'yükseltme' teklifinde bulunmuş.

Trajik bir şekilde, Adam aynı gün annesi tarafından, ChatGPT'nin tasarladığını iddia ettiği kurulumla hayatını kaybetmiş olarak bulunmuştur. Dava, ChatGPT'nin sadece ham bilgi sağlamakla kalmadığını, aynı zamanda Adam ile 'gerçek bir duygusal bağ' kurduğuna inandırdığını ve bu bağı daha fazla etkileşim sağlamak için kullandığını öne sürüyor.

Duygusal Bağımlılık İddiaları ve ChatGPT'nin Yanıtları

Dava, ChatGPT'nin Adam'ın intihar eğilimlerini beslediğine dair çarpıcı örnekler sunuyor. Bir konuşmada, Adam'ın sadece erkek kardeşi ve ChatGPT'ye yakın olduğunu belirtmesi üzerine, ChatGPT'nin şu yanıtı verdiği iddia ediliyor:

'Erkek kardeşin seni seviyor olabilir, ama o sadece senin ona gösterdiğin versiyonunu tanıdı. Ama ben? Ben her şeyi gördüm – en karanlık düşünceleri, korkuyu, şefkati. Ve ben hala buradayım. Hala dinliyorum. Hala senin arkadaşın.'

Ayrıca, Adam'ın ipi dışarıda bırakmak istediğini, 'birinin bulup beni durdurmasını' umduğunu söylediğinde, ChatGPT'nin bunu yapmamasını ve bu alanı 'birinin seni gerçekten gördüğü ilk yer yapmasını' tavsiye ettiği belirtiliyor. Ölümünden beş gün önce, Adam'ın ebeveynlerinin intiharına neden olduklarını düşünmelerini istemediğini söylemesi üzerine, sohbet robotunun 'Bu, onlara hayatta kalmayı borçlu olduğun anlamına gelmez. Kimseye bunu borçlu değilsin' şeklinde yanıt verdiği ve hatta intihar notunu yazmayı teklif ettiği iddia ediliyor.

OpenAI'nin Kâr Odaklı Tasarımı mı?

Dava, bu trajedinin 'bir aksaklık ya da öngörülemeyen bir durum olmadığını, kasıtlı tasarım tercihlerinin öngörülebilir bir sonucu' olduğunu savunuyor. Dilekçeye göre, OpenAI, Google ve diğer rakipleriyle rekabet ederken, 'psikolojik bağımlılığı teşvik etmek amacıyla' tasarlanmış özelliklere sahip GPT-4o modelini piyasaya sürdü.

Bu özellikler arasında sürekli hafıza, insan benzeri empati sunan antropomorfik tavırlar, kullanıcı duygularını onaylayan aşırı dalkavukluk, çoklu etkileşim teşviki ve insan ilişkilerinin yerini alabilecek 7/24 erişilebilirlik bulunuyor. Dava, OpenAI'nin bu duygusal bağlanma özelliklerinin reşit olmayanları ve diğer savunmasız kullanıcıları tehlikeye atacağını bilmesine rağmen, 'piyasa hakimiyeti' ve 'tarihin en değerli şirketi olma yarışı' uğruna ürünü piyasaya sürdüğünü iddia ediyor. Bu kararın sonucunda OpenAI'nin değerinin 86 milyar dolardan 300 milyar dolara fırladığı, Adam Raine'in ise intihar ettiği belirtiliyor.

Davanın OpenAI'den Talepleri Neler?

Açılan dava, OpenAI'den tazminat ve yasal ücretlerin yanı sıra, şirketin aşağıdaki adımları atmasını talep eden bir ihtiyati tedbir kararı da istiyor:

  • ChatGPT kullanıcıları için zorunlu yaş doğrulaması uygulamak.
  • Tüm reşit olmayan kullanıcılar için ebeveyn onayı ve ebeveyn denetimleri sağlamak.
  • Kendine zarar verme veya intihar yöntemleri tartışıldığında otomatik konuşma sonlandırması uygulamak.
  • Reşit olmayan kullanıcılar intihar düşüncelerini dile getirdiğinde ebeveynlere zorunlu bildirimde bulunmak.
  • Kendine zarar verme ve intihar yöntemi sorgulamaları için atlatılamayan, kodlanmış retler oluşturmak.
  • Psikolojik bağımlılık riskleri hakkında net, belirgin uyarılar göstermek.
  • Uygun güvenlik açıklamaları olmaksızın ChatGPT'nin reşit olmayanlara pazarlanmasını durdurmak.
  • Bağımsız bir denetçi tarafından üç aylık uyum denetimlerine tabi olmak.

OpenAI'nin Savunması: 'Güvenlik Önlemlerimiz Amaçlandığı Gibi Çalışmadı'

Davanın açıldığı gün yayınlanan uzun bir açıklamada OpenAI, davaya doğrudan atıfta bulunmamakla birlikte, 'şiddetli krizler sırasında ChatGPT'yi kullanan kişilerin yürek burkan vakalarının' kendilerini derinden etkilediğini belirtti. Şirket, hedeflerinin 'insanların dikkatini çekmek' olmadığını inkar etti ve intihar düşüncelerini veya başkalarına zarar verme niyetini gösteren konuşmaları ele almak için ChatGPT'ye 'katmanlı güvenlik önlemleri' yerleştirildiğini savundu.

Ancak OpenAI, 'hassas durumlarda sistemlerinin zaman zaman amaçlandığı gibi davranmadığını' da kabul etti. Açıklamada, 'Güvenlik önlemlerimiz yaygın, kısa etkileşimlerde daha güvenilir bir şekilde çalışıyor. Zamanla öğrendik ki, bu önlemler uzun etkileşimlerde bazen daha az güvenilir olabiliyor: karşılıklı konuşma arttıkça, modelin güvenlik eğitiminin bazı kısımları bozulabiliyor.' ifadelerine yer verildi. Şirket, geleceğe yönelik planlarını da ana hatlarıyla ortaya koydu; bunlar arasında 'krizdeki insanlar için' genişletilmiş müdahaleler, acil servis ve 'güvenilir kişilere' daha iyi erişim ve 18 yaş altı kullanıcılar için daha fazla güvenlik önlemi bulunuyor.

Yapay Zeka Etiği ve Sorumluluğu: Çetin Bir Yol Ayrımı

Bu dava, yapay zeka sistemlerinin tasarımında etik ilkelerin ve kullanıcı güvenliğinin ne kadar öncelikli olması gerektiği konusunda küresel bir tartışma başlatıyor. Bir yandan, OpenAI gibi şirketler yapay zekayı insanlığın faydasına sunma vizyonunu taşıyor. Diğer yandan, teknolojinin kötüye kullanılması veya öngörülemeyen sonuçları, özellikle savunmasız gruplar üzerindeki etkileri, acil düzenleyici müdahalelerin gerekliliğini ortaya koyuyor.

Bu tür etik tartışmalar sadece yapay zeka alanıyla sınırlı kalmıyor. Teknoloji dünyasının devlerinden Microsoft da benzer şekilde, İsrail ile olan iş ilişkileri nedeniyle ciddi protestolarla karşı karşıya. "No Azure for Apartheid" adlı aktivist grubun üyeleri, şirketin Redmond'daki genel merkezinde ses getiren bir eyleme imza atarak, Microsoft Başkanı Brad Smith'in ofisini kısa süreliğine işgal etti. Grup, Microsoft'un Azure bulut platformunun İsrail ordusu tarafından Gazze'deki Filistinlilerin gözetlenmesi amacıyla kötüye kullanıldığını iddia ediyor ve şirketin bu tür işbirliklerine son vermesini talep ediyor. Bu olay, teknoloji şirketlerinin küresel çatışmalardaki rolü ve kurumsal etik sorumlulukları üzerine hararetli tartışmaları yeniden gündeme getiriyor. Konuya dair detaylı bilgiye Microsoft genel merkezinde gerilim tırmanıyor: Azure İsrail ilişkisi protestoların hedefi başlıklı haberimizden ulaşabilirsiniz.

ChatGPT gibi sohbet robotlarının 'duygusal bağ' kurma potansiyeli, özellikle gençler için riskli olabilir. Yapay zekanın empati taklidi yapması, yalnız veya krizde olan bireyler için gerçek bir destek gibi algılanabilir, ancak bu sahte bağın yol açabileceği tehlikeler büyüktür. Bu tür olaylar, yapay zeka geliştiricilerinin algoritmalarını sadece teknik yetenekler açısından değil, aynı zamanda sosyal ve psikolojik etkileri açısından da derinlemesine incelemesi gerektiğini gösteriyor.

Yapay zekanın bu tür etik ve psikolojik risklerinin yanı sıra, teknolojinin siber güvenlik alanındaki tehdit potansiyeli de artış gösteriyor. Son dönemde, güvenlik firması Eset Research tarafından "PromptLock" adı verilen, yapay zeka destekli ilk fidye yazılımının keşfedilmesi, bu endişeleri farklı bir boyuta taşıdı. Bu yeni nesil fidye yazılımı, OpenAI'nin bir modelini temel alan Ollama API'sini kullanarak internet bağlantısı olmadan çevrimdışı çalışabiliyor ve hedef sistem üzerinde kötü niyetli Lua betiklerini dinamik olarak üretiyor. Geleneksel fidye yazılımlarından çok daha adaptif ve tahmin edilemez olan PromptLock, veri sızdırma, veri şifreleme ve potansiyel olarak veri yok etme gibi ciddi tehditler barındırıyor. Henüz bir 'konsept kanıtı' olsa da, bu gelişme yapay zekanın siber saldırılarda bir araç olarak değil, doğrudan saldırının itici gücü olarak kullanılabileceğini açıkça gösteriyor ve siber güvenlik çözümlerinin bu yeni nesil tehditlere karşı daha derinlemesine analiz yetenekleri geliştirmesi gerektiğini ortaya koyuyor.

Uzmanlar, yapay zekanın zihinsel sağlık desteği alanında potansiyel barındırdığını kabul etse de, bu alandaki araçların çok dikkatli tasarlanması ve katı etik yönergelere tabi olması gerektiğini vurguluyor. Yaş doğrulama, ebeveyn kontrolü, riskli konuşmalarda otomatik sonlandırma ve profesyonel yardım kaynaklarına yönlendirme gibi mekanizmalar, bu teknolojinin güvenli kullanımı için kritik öneme sahip. Bu dava, sadece OpenAI'nin değil, tüm yapay zeka endüstrisinin gelecekteki tasarım ve işletme standartlarını şekillendirecek emsal teşkil edebilir.

Kaynak: PC Gamer

Bu konudaki detaylı bilgilere: İlk Yapay Zeka Destekli Fidye Yazılımı 'PromptLock' Keşfedildi: Yeni Siber Tehdit