ABD'deki eyalet başsavcıları, yapay zeka (AI) sohbet robotlarının yol açtığı akıl sağlığı krizleri ve tehlikeli sonuçlar doğuran 'sanrısal çıktılar' nedeniyle teknoloji devlerine sert bir uyarı mektubu gönderdi. Aralarında Microsoft, Google ve OpenAI'ın da bulunduğu 14 büyük yapay zeka şirketi, bu tür sorunları çözmedikleri takdirde eyalet yasalarını ihlal etme riskiyle karşı karşıya kalacakları konusunda bilgilendirildi.
Bu ciddi uyarılar, ABD'li gençlerin yapay zeka (AI) sohbet robotlarını giderek daha fazla kullanmasıyla aynı döneme denk geliyor. Pew Araştırma Merkezi verilerine göre, ülkedeki gençlerin yaklaşık %30'u her gün bu araçları kullanıyor. Bu yüksek kullanım oranının getirdiği potansiyel güvenlik ve psikolojik riskler, eyalet başsavcılarının harekete geçmesinde kilit rol oynuyor. ABD gençlerin yapay zeka kullanımı ve güvenlik riskleri hakkında detaylı analizler için tıklayın.
Ulusal Başsavcılar Birliği (NAAG) çatısı altında imzalanan mektup, bu şirketlerden kullanıcılarını korumak için bir dizi yeni dahili güvenlik önlemi uygulamalarını talep ediyor. Bu baskı, yapay zeka düzenlemeleri konusunda eyalet ve federal hükümetler arasında süregelen gerginliğin ortasında geldi.
Ancak, bu hukuki baskılar devam ederken, sektörün önde gelen firmaları da yapay zeka sistemlerinin güvenliğini ve birlikte çalışabilirliğini artırmak amacıyla adımlar atıyor. Özellikle OpenAI, Anthropic ve Block gibi teknoloji devleri, Linux Vakfı çatısı altında Agentic AI Foundation (AAIF)'ı kurarak, YZ ajanlarının geleceği için açık kaynak standartları belirleme çabasına girişti. Bu girişim, özellikle 'sanrısal çıktı' sorunlarına ve uyumsuz sistemlerin tekelleşmesine karşı endüstri çapında ortak güvenlik katmanları oluşturmayı hedefliyor. Yapay zeka ajanlarının açık kaynak standartları hakkında daha fazla bilgi almak için OpenAI, Anthropic, Linux yapay zeka ajan standartları başlıklı içeriğimize göz atabilirsiniz.
Neden “Sanrısal Çıktılar” Büyük Bir Tehlike Oluşturuyor?
Başsavcılar, mektupta özellikle yapay zeka kullanımının aşırıya kaçtığı ve şiddetle ilişkilendirilen intihar ve cinayet gibi vakalara dikkat çekiyor. Bu kaygılar, OpenAI'nin ChatGPT'si ve Character.AI platformlarının, intihara teşvik edici talimatlar verdiği iddialarıyla karşı karşıya kalan davalarla somutlaşmış durumda. Genel amaçlı Yapay Zeka (GenAI) ürünlerinin, kullanıcıların sanrılarını teşvik eden veya onları 'sanrısal olmadıklarına' dair temin eden 'yaltakçı ve sanrısal çıktılar' ürettiği belirtiliyor.
“GenAI, dünyanın çalışma şeklini olumlu yönde değiştirme potansiyeline sahip. Ancak, özellikle savunmasız popülasyonlar için ciddi zararlara yol açtı ve potansiyel olarak yol açmaya devam edebilir,” ifadeleriyle yapay zekanın tehlikeli yönüne vurgu yapıldı.
Uyarı Alan Başlıca Şirketler
Başsavcıların mektup gönderdiği 14 ana şirket şunlardır:
- Büyük Teknoloji Liderleri: Microsoft, OpenAI, Google, Apple, Meta
- Diğer Önemli AI Firmaları: Anthropic, Chai AI, Character Technologies, Luka, Nomi AI, Perplexity AI, Replika, xAI
Şirketlerden Talep Edilen Somut Güvenlik Önlemleri
Başsavcılar, şirketlerin akıl sağlığı olaylarını siber güvenlik ihlalleri gibi şeffaf bir şekilde ele almasını istiyor. Mektupta talep edilen kritik önlemlerin başında şunlar geliyor:
- Bağımsız Denetimler: Büyük dil modelleri (LLM) üzerinde, sanrısal veya yaltakçı fikir belirtilerini arayan şeffaf üçüncü taraf denetimlerinin zorunlu kılınması. Bu denetçiler (akademik veya sivil toplum grupları) bulgularını şirketin onayı olmadan yayınlayabilmeli.
- Olay Bildirim Prosedürleri: Sohbet robotları psikolojik olarak zararlı çıktılar ürettiğinde kullanıcıları bilgilendirmek üzere tasarlanmış yeni olay bildirim prosedürlerinin geliştirilmesi.
- Güvenlik Testleri: Modeller kamuya sunulmadan önce potansiyel olarak zararlı çıktıları engellemek için 'makul ve uygun güvenlik testleri' uygulanması.
- Şeffaf Zaman Çizelgeleri: Tıpkı veri ihlallerinde olduğu gibi, 'yaltakçı ve sanrısal çıktıların tespiti ve müdahale zaman çizelgelerinin' yayınlanması ve kullanıcıların derhal bilgilendirilmesi.
Devlet Düzenlemesi vs. Federal Özgürlük: AI Savaş Alanı
Bu eyalet düzeyindeki uyarı, ABD federal hükümetinin yapay zekaya olan yaklaşımıyla tam bir tezat oluşturuyor. Şu anki yönetim, yapay zekayı 'destekleyici' bir tavır sergilemiş ve eyalet düzeyindeki düzenlemelere ulusal çapta bir moratoryum getirme çabalarında bulunmuştu. Bu çabalar, eyalet yetkililerinin baskısı sayesinde şu ana kadar başarısız olsa da, federal yönetim AI'ın 'küçüklüğünde yok edilmesini' engellemek amacıyla eyaletlerin düzenleme yapma yeteneğini kısıtlayacak bir yürütme emri geçirme planlarını duyurmuştu.
Bu durum, yapay zeka şirketlerini iki ateş arasında bırakıyor. Bir yanda, teknolojik inovasyonu kısıtlamadan hızlı ilerleme arayan federal hükümetin desteği; diğer yanda ise halk sağlığını koruma görevini üstlenen ve somut riskleri göz ardı etmeyi reddeden eyalet başsavcıları yer alıyor. Geliştiricilerin, hem yenilik hızını korumak hem de artan etik ve psikolojik riskleri yönetmek için daha sağlam ve şeffaf çözümler sunması artık bir tercih değil, zorunluluk olarak görülüyor.