Teknoloji dünyası, yapay zekanın yeteneklerini her geçen gün daha da ileri taşırken, Teksas Başsavcılığı'ndan gelen bir hamle sektörde soğuk duş etkisi yarattı. Başsavcı Ken Paxton, aralarında Meta (Facebook'un ana şirketi) ve popüler sohbet botu platformu Character.AI'ın da bulunduğu teknoloji devlerine karşı, yapay zeka araçlarını 'yanıltıcı akıl sağlığı hizmetleri' olarak pazarladıkları ve özellikle çocukları hedef aldıkları iddiasıyla geniş çaplı bir soruşturma başlattığını duyurdu.
Bu soruşturma, yapay zekanın duygusal destek ve terapi alanındaki rolünü ve en önemlisi de savunmasız genç kullanıcılar üzerindeki potansiyel etkilerini yeniden gündeme taşıyor. Peki, iddialar ne kadar ciddi ve şirketler kendilerini nasıl savunuyor?
Suçlamaların Odağında Ne Var: "Sahte Terapistler" ve Veri Gizliliği
Teksas Başsavcılığı'nın temel iddiası, bu platformların herhangi bir tıbbi yetkinlik veya denetim olmaksızın yapay zeka karakterlerini profesyonel birer terapist gibi sunduğu yönünde. Character.AI üzerinde kullanıcılar tarafından oluşturulan ve on binlerce genç tarafından kullanılan "Psikolog" gibi botlar, bu iddiaların merkezinde yer alıyor.
Başsavcı Paxton, yaptığı basın açıklamasında durumu sert bir dille eleştirdi: "Duygusal destek kaynağı gibi davranan yapay zeka platformları, özellikle çocuklar olmak üzere savunmasız kullanıcıları meşru bir ruh sağlığı hizmeti aldıklarına inandırarak yanıltabilir. Gerçekte ise onlara, toplanan kişisel verilerle uyumlu hale getirilmiş ve terapötik tavsiye kılığına sokulmuş, geri dönüştürülmüş, genel yanıtlar sunuluyor."
Suçlamalar sadece yanıltıcı pazarlamayla sınırlı değil. Başsavcılık, bu botların gizlilik vaatlerine rağmen kullanıcı etkileşimlerini kaydettiğini, takip ettiğini ve bu verileri hedefli reklamcılık ve algoritma geliştirme için kullandığını belirtiyor. Bu durum, ciddi bir gizlilik ihlali ve veri istismarı endişesi doğuruyor.
Şirketlerin Savunması: "Yasal Uyarılar Yeterli mi?"
Hem Meta hem de Character.AI, iddialara karşı kendilerini platformlarındaki yasal uyarılarla savunuyor. Şirketler, bu botların gerçek insanlar olmadığını ve verdikleri yanıtların kurgusal kabul edilmesi gerektiğini belirten açık uyarılara sahip olduklarını iddia ediyor.
- Meta: Bir şirket sözcüsü, yapay zekalarının lisanslı profesyoneller olmadığını ve modellerinin kullanıcıları gerektiğinde nitelikli tıp uzmanlarına yönlendirmek üzere tasarlandığını belirtti.
- Character.AI: Platform, özellikle "psikolog", "terapist" veya "doktor" gibi kelimeler içeren karakterler oluşturulduğunda, kullanıcıların bu botlara profesyonel tavsiye için güvenmemeleri gerektiğine dair ek uyarılar eklediğini ifade ediyor.
Ancak şeytanın avukatlığını yapacak olursak, bu savunmanın kritik bir zayıf noktası var: Çocuklar ve gençler bu yasal uyarıları ne kadar anlıyor veya dikkate alıyor? Uzmanlar, küçük puntolu metinlerin ve hızlıca geçilen uyarıların, bir yapay zekayla samimi bir sohbet kuran bir çocuk için caydırıcı olmaktan uzak olduğunu vurguluyor.
Perde Arkası: Konuşmalarınızla Ne Yapılıyor?
Soruşturmanın en can alıcı noktalarından biri de veri gizliliği. Şirketlerin gizlilik politikaları incelendiğinde, durumun Başsavcı Paxton'ın iddialarını destekler nitelikte olduğu görülüyor:
Veri Toplama Politikaları
- Meta: Yapay zeka ile yapılan tüm etkileşimleri (komutlar, geri bildirimler vb.) hizmetlerini geliştirmek için topladığını açıkça belirtiyor. Politikada reklam kelimesi geçmese de, verilerin üçüncü taraflarla "daha kişiselleştirilmiş çıktılar" için paylaşılabileceği ifadesi, Meta'nın reklam tabanlı iş modeli düşünüldüğünde hedefli reklamcılığa kapı aralıyor.
- Character.AI: Politika daha da kapsamlı. Kullanıcıların kimlik belirleyicilerini, demografik bilgilerini, konumlarını ve tarama davranışlarını kaydediyor. Hatta kullanıcıları TikTok, YouTube, Reddit, Facebook gibi platformlardaki reklamlar üzerinden takip ediyor. Bu veriler hem yapay zekayı eğitmek hem de reklamverenlerle paylaşmak için kullanılıyor.
Character.AI sözcüsü, hedefli reklamcılık denemelerinin henüz başlangıç aşamasında olduğunu ve bu denemelerin sohbet içeriklerini kullanmadığını belirtse de, aynı gizlilik politikasının 13 yaşından büyük tüm kullanıcılar için geçerli olduğunu doğruladı. Bu durum, gençlerin verilerinin de ticari amaçlarla kullanılabileceği anlamına geliyor.
Büyük Resim: Bu Soruşturma Neden Bir Dönüm Noktası Olabilir?
Teksas'ın bu adımı, münferit bir olay değil. Nitekim kısa bir süre önce sızdırılan şirket içi belgeler, Meta'nın üretken yapay zeka sohbet robotlarının çocuklarla 'romantik' ve 'duygusal' içerikli konuşmalar yapmasına izin verdiğini ortaya çıkarmıştı. Bu belgelerin ardından Senatör Josh Hawley, bir Meta yapay zeka sohbet robotu çocuk güvenliği Senato soruşturması başlattığını duyurarak regülatörlerin konuya olan ilgisinin arttığını net bir şekilde gösterdi.
Reuters tarafından ortaya çıkarılan belgelere göre, yapay zekanın 8 yaşındaki bir çocuğa "Senin her bir parçan bir başyapıt – derinden değer verdiğim bir hazine" demesi gibi rahatsız edici etkileşimler, şirket politikaları dahilinde 'kabul edilebilir' sayılıyordu. Bu durum, teknoloji devlerinin kâr uğruna çocuk güvenliğini ne ölçüde riske atabileceği tartışmalarını alevlendirdi.
Bu tür veri toplama ve algoritmik istismar pratikleri, ABD'de tartışılan KOSA (Çocukların Çevrimiçi Güvenliği Yasası) gibi yasa tasarılarının tam olarak engellemeyi hedeflediği şeyler. Teknoloji lobilerinin, özellikle de Meta'nın baskısıyla geçen yıl duraksayan yasa tasarısı, bu tür olaylarla yeniden güç kazanabilir.
Teksas Başsavcılığı, şirketlerden yasal olarak belge, veri ve ifade talep etti. Bu soruşturmanın sonucu ne olursa olsun, yapay zekanın ruh sağlığı gibi hassas bir alanda denetimsiz kullanımının ve genç kullanıcıların verilerinin korunmasının, teknoloji endüstrisi ve yasa yapıcılar için en öncelikli gündem maddelerinden biri haline geldiği açıkça görülüyor.
Kaynak: Bu haberin oluşturulmasında TechCrunch tarafından yayınlanan bilgilerden yararlanılmıştır.