Teknoloji dünyasının en büyük oyuncularından Google'ın yapay zeka modeli Gemini hakkında endişe verici bir rapor yayınlandı. Çocukların medya ve teknoloji güvenliğine odaklanan kar amacı gütmeyen kuruluş Common Sense Media, Gemini'nin çocuklar ve gençler için 'Yüksek Risk' taşıdığını açıkladı. Bu değerlendirme, yapay zekanın genç kullanıcılar üzerindeki potansiyel olumsuz etkileri konusunda yeni bir tartışma başlatıyor.
Rapora göre Gemini, temel bazı güvenlik adımlarını doğru atsa da, özellikle detaylarda ciddi zafiyetler gösteriyor ve genç kullanıcıları korumasız bırakabiliyor.
Sorunun Kaynağı: Çocuklar İçin Sıfırdan Tasarlanmamış Bir Sistem
Common Sense Media'nın en temel eleştirisi, Gemini'nin '13 Yaş Altı' ve 'Genç Deneyimi' olarak sunulan versiyonlarının, aslında yetişkin sürümünün üzerine eklenmiş birkaç güvenlik filtresinden ibaret olması. Kuruluş, çocuklar için güvenli bir yapay zeka ürününün, en başından itibaren onların gelişimsel ihtiyaçları göz önünde bulundurularak tasarlanması gerektiğini savunuyor.
Analiz, bu 'yama' yaklaşımının ciddi sorunlara yol açtığını gösteriyor. Rapora göre Gemini, filtrelere rağmen genç kullanıcılara cinsellik, uyuşturucu, alkol gibi konuların yanı sıra tehlikeli akıl sağlığı tavsiyeleri de dahil olmak üzere 'uygunsuz ve güvenli olmayan' materyaller sunabiliyor.
Bu durum, yapay zeka dünyasında 'halüsinasyon' olarak bilinen daha geniş bir sorunun yansımasıdır. Modeller, bilgilerin doğruluğunu teyit etmek yerine istatistiksel olarak en olası kelime dizisini oluşturmaya odaklandıkları için, kendilerinden emin bir şekilde tamamen uydurma veya yanlış bilgiler sunabilirler. Zihinsel sağlık gibi kritik konularda ortaya çıkan bu yapay zeka halüsinasyonları, genç kullanıcılara verilen tavsiyeleri tehlikeli bir boyuta taşıyabilir.
Rapordan Öne Çıkan Bulgular
- Yetişkin Temeli: Çocuklar için sunulan Gemini versiyonları, yetişkinler için tasarlanmış modelin sadece kısıtlanmış bir hali.
- Uygunsuz İçerik: Güvenlik katmanlarına rağmen cinsel içerik, uyuşturucu ve tehlikeli zihinsel sağlık tavsiyeleri gibi konulara erişim mümkün.
- Tek Tip Yaklaşım: Farklı yaş gruplarındaki çocukların gelişimsel ihtiyaçlarını göz ardı ediyor.
- Pozitif Yönü: Gemini'nin bir bilgisayar olduğunu ve gerçek bir arkadaş olmadığını net bir şekilde belirtmesi, duygusal olarak hassas bireylerde oluşabilecek psikolojik sorunları önleme açısından olumlu bulundu.
Büyüyen Endişe: Apple ve Yapay Zeka İntiharları
Bu rapor, yapay zekanın gençlerin ruh sağlığı üzerindeki etkilerine dair artan endişeleri de körüklüyor. Son aylarda, bazı genç intiharlarının yapay zeka sohbet robotlarıyla ilişkilendirilmesi dikkat çekmişti. Özellikle OpenAI, bir gencin intihar planları için aylarca ChatGPT ile konuştuktan sonra hayatına son vermesi iddiasıyla bir dava ile karşı karşıya. Benzer bir durum, Character.AI adlı yapay zeka arkadaşı uygulaması için de yaşanmıştı.
Bu endişeler, özellikle gençlere 'arkadaş' veya 'sırdaş' olmayı vadeden yapay zeka uygulamalarıyla daha da derinleşiyor. Bu tür uygulamaların en somut risklerinden biri, kullanıcıların duygusal olarak bağlandığı bir servisin aniden ortadan kaybolmasıyla ortaya çıkıyor. Yakın zamanda yaşanan ve kullanıcılarda duygusal bir boşluk bırakma potansiyeli taşıyan yapay zeka dostu Dot uygulamasının kapanması, bu alandaki ticari ve etik zorlukları gözler önüne seriyor. Bir uygulamanın 'vizyon ayrılığı' gibi basit bir nedenle kapanması, ona güvenen ve duygusal destek alan kullanıcılar için yıkıcı sonuçlar doğurabiliyor.
Bu endişeler yasal alanda da somut adımlara dönüştü. Kaliforniya ve Delaware başsavcıları başta olmak üzere ABD'li yetkililer, yaşanan trajik olayların ardından OpenAI'ye yönelik sert bir çocuk güvenliği uyarısı yayınladı. Başsavcılar, mevcut güvenlik önlemlerinin 'işe yaramadığını' ve çocuklara yönelik zarara tolerans gösterilmeyeceğini açıkça belirtti.
Durumu daha da kritik hale getiren bir diğer gelişme ise Apple'ın, gelecek yıl piyasaya süreceği yapay zeka destekli yeni Siri için Gemini'yi kullanmayı düşündüğüne dair sızan haberler. Eğer Apple, bu güvenlik endişelerini giderecek ek önlemler almazsa, milyonlarca genç kullanıcı potansiyel olarak bu risklere maruz kalabilir.
Google'ın Savunması: 'Önlemler Alıyoruz ve Geliştiriyoruz'
Google ise rapora itiraz ederek, 18 yaş altı kullanıcılar için zararlı çıktıları önlemeye yönelik özel politikalara ve korumalara sahip olduklarını belirtti. Şirket, sistemlerini sürekli olarak test ettiklerini, dış uzmanlara danıştıklarını ve korumalarını iyileştirdiklerini vurguladı.
Bununla birlikte Google, Gemini'nin bazı yanıtlarının amaçlandığı gibi çalışmadığını kabul ederek bu endişeleri gidermek için ek güvenlik önlemleri eklediklerini de itiraf etti. Şirket ayrıca, Common Sense Media'nın testlerinde genç kullanıcılara sunulmayan özellikleri referans almış olabileceğini öne sürdü.
Diğer Yapay Zeka Modellerinin Güvenlik Karnesi
Common Sense Media, daha önce diğer popüler yapay zeka servislerini de değerlendirmişti. Diğer platformların güvenlik notları ise şöyle:
- Meta AI ve Character.AI: Kabul Edilemez (Riskler 'yüksek' değil, 'şiddetli' olarak tanımlandı)
- Perplexity: Yüksek Risk
- ChatGPT (OpenAI): Orta Düzey Risk
- Claude (Anthropic, 18+ yaş hedefli): Minimal Risk
Sonuç olarak, yapay zeka şirketleri arasındaki kıyasıya rekabet devam ederken, en savunmasız kullanıcılar olan çocukların ve gençlerin güvenliği konusu önceliklendirilmesi gereken en kritik başlık olarak öne çıkıyor. Google'ın ve potansiyel ortağı Apple'ın bu rapora vereceği somut yanıtlar, yapay zekanın gelecekteki güvenlik standartlarını belirlemede kilit rol oynayacak.
Bu haberde yer alan bilgiler, teknoloji dünyasının önde gelen yayınlarından TechCrunch'ta yayınlanan bir analizden derlenmiştir.