ABD'de yapay zeka (AI) regülasyonlarına yönelik gerilim giderek artıyor. Sektörün önde gelen yatırımcıları ve şirket yöneticileri tarafından desteklenen bir siyasi eylem komitesi (Super PAC), AI'a katı kurallar getirmeyi amaçlayan New York Eyalet Temsilcisi Alex Bores'u hedef alarak regülasyon karşıtı ilk büyük hamlesini başlattı.
'Leading the Future' (Geleceğe Liderlik Etmek) adını taşıyan bu PAC, Ağustos ayında kuruldu ve AI düzenlemelerine 'hafif dokunuş' ya da 'hiç dokunmama' yaklaşımını destekleyen politikacıları finanse etmek amacıyla 100 milyon doların üzerinde bir bütçe taahhüdü aldı. Bu fonun ilk hedefi ise Kongre üyeliğine aday olan Bores oldu.
Sektörün Devlerinden Oluşan Lobi Gücü
Bu Super PAC'ın arkasındaki isimler, Silikon Vadisi'nin en etkili figürlerini içeriyor. Başta Andreessen Horowitz (a16z) olmak üzere, OpenAI Başkanı Greg Brockman, Palantir kurucu ortağı Joe Lonsdale ve AI arama motoru Perplexity gibi önemli teknoloji liderleri, Bores'un yasa teklifini engellemek için finansal destek sağlıyor. Bu durum, teknoloji endüstrisinin siyasi alanda ne kadar aktif ve organize olabileceğinin çarpıcı bir göstergesi.
Alex Bores, Washington D.C.'deki bir gazetecilik çalıştayında yaptığı açıklamada, PAC'ın kendisine karşı milyonlar harcayacağını açıkça belirtmesinden memnun olduğunu ifade etti. Bores, bu durumu seçmenlerine, 'Büyük Teknoloji'yi düzenleme ve AI'a temel koruma kalkanları getirme çabasına karşı bir kanıt olarak sunacağını söylüyor.
New York'un RAISE Yasası Ne Öngörüyor?
Alex Bores'un ana destekçisi olduğu ve New York Valisi Kathy Hochul'un onayını bekleyen **RAISE Yasası** (Responsible AI Safety and Evaluation Act - Sorumlu AI Güvenliği ve Değerlendirme Yasası), büyük AI laboratuvarlarına önemli yükümlülükler getiriyor. Bu yasanın kilit maddeleri şunları içeriyor:
- Güvenlik Planları: Büyük AI firmalarının kritik zararları önlemek için detaylı güvenlik planları oluşturmasını zorunlu kılıyor.
- Olay Açıklaması: Kötü niyetli aktörlerin model çalması gibi kritik güvenlik olaylarının kamuoyuna açıklanması gerekiyor.
- Risk Kısıtlaması: Şirketlerin, kritik zarar riski taşıyan modelleri yayınlaması yasaklanıyor.
- Para Cezaları: Bu standartlara uymayan şirketlere 30 milyon dolara kadar para cezaları uygulanması öngörülüyor.
Bu regülasyonların ne kadar kritik olduğu, OpenAI gibi sektör devlerinin yaşadığı güncel güvenlik ihlalleriyle de kanıtlanıyor. Şirket, GPT-4o modelinin yetersiz güvenlik önlemleriyle piyasaya sürülmesi iddiasıyla son günlerde yedi farklı aile tarafından dava edildi. Davaların dördü ChatGPT'nin intiharlardaki rolünü öne sürerken, kalan üç dava ise modelin kullanıcıların zararlı sanrılarını pekiştirmesi ve hastane yatışına yol açması nedeniyle açıldı. Hukuk uzmanları, bu trajik davaların, yapay zeka modellerini 'ürün' olarak mı, yoksa 'iletişim aracı' olarak mı değerlendireceği konusunda kritik bir emsal teşkil edeceğini belirtiyor. Bu riskler sadece hayati durumlarla sınırlı kalmıyor; yüksek doğruluk gerektiren hukuk gibi alanlarda, yapay zekanın güvenle yanlış, uydurma veya bağlam dışı cevaplar üretme eğilimi olan 'hallüsinasyon' riski, ünlü isimlerin bile akademik kariyerlerini tehlikeye atabiliyor. Örneğin, ünlü girişimci ve hukuk eğitimi alan Kim Kardashian'ın, hukuk sınavlarında ChatGPT'ye güvenmesi sonucu başarısız olduğu itirafı, bu tür modellerin doğrulama yapılmadan kullanımının felaketle sonuçlanabileceğinin somut bir göstergesidir. Kim Kardashian’ın ChatGPT ile hukuk sınavlarında yaşadığı hallüsinasyon riskleri hakkında detaylı bilgiye buradan ulaşabilirsiniz. OpenAI'ın GPT-4o modeli hakkında açılan intihar ve sanrı davaları hakkındaki detaylı bilgilere buradan ulaşabilirsiniz.
Bores, bu taslağı hazırlarken OpenAI ve Anthropic gibi büyük AI firmalarıyla istişarelerde bulunduğunu, ancak sektörün kabul etmediği üçüncü taraf güvenlik denetimi gibi bazı maddeleri çıkarmak zorunda kaldığını da ekledi.
Teknoloji Lobisinin Eleştirileri ve Karşı Görüşler
Leading the Future yöneticileri Zac Moffatt ve Josh Vlasto, Bores'un kampanyasını batırmak için milyarlarca dolarlık bir çaba göstereceklerini belirtirken, RAISE Yasası'nı şu sert sözlerle eleştiriyor:
“RAISE Yasası gibi ideolojik ve siyasi güdümlü yasalar, yalnızca New York’un değil, tüm ülkenin AI alanında liderlik etme kabiliyetini baltalamaktadır. Bu tür eyalet yasaları, Amerikan rekabetçiliğini tehdit eder, ekonomik büyümeyi sınırlar ve Çin’in küresel AI yarışını kazanmasına kapı aralar.”
Super PAC, Amerika'nın eyaletten eyalete değişen 'yama işi' düzenlemeler yerine, ekonomiyi güçlendirecek, istihdam yaratacak ve kullanıcıları koruyacak tek ve tutarlı bir ulusal düzenleyici çerçeveye ihtiyacı olduğunu savunuyor.
Bu düzenleme karşıtı lobi faaliyetleri sürerken, ABD'nin yapay zeka liderliğini kaybetme riski de sektörün önde gelen isimleri tarafından dile getiriliyor. Databricks kurucu ortağı Andy Konwinski, ABD'deki büyük laboratuvarların (OpenAI, Anthropic) tescilli (proprietary) modelleri tercih etmesini eleştirerek, Çin'in DeepSeek ve Alibaba’nın Qwen’i gibi modelleri açık kaynak olarak desteklemesi sayesinde akademik fikir üretiminde dahi ABD'nin geride kaldığını belirtiyor. Konwinski, bu durumun ABD'nin küresel liderliğini Çin'e kaptırma ve hatta demokrasi için varoluşsal bir tehdit oluşturduğu konusunda uyarırken, ülkenin rekabetçiliğini sürdürmek için açık kaynak inovasyon modeline geçmesi gerektiğini savunuyor. ABD'nin yapay zeka liderliğini Çin'e kaptırma riski ve açık kaynak modeli ile ilgili detaylı uyarılar için buraya tıklayabilirsiniz.
Eyaletler mi, Federal Hükümet mi? Regülasyon İkilemi
Bu çatışmanın merkezinde, AI regülasyon yetkisinin kimde olması gerektiği yatıyor. Silikon Vadisi'ndeki birçok aktör, eyaletlerin AI ile ilgili yasalar çıkarmasını federal düzeyde engellemeyi (preemption) amaçlıyor. Daha önce federal bütçe tasarısına böyle bir hüküm eklenmiş, ancak daha sonra çıkarılmıştı.
Alex Bores ise bu yaklaşıma karşı çıkıyor. Bores'a göre, federal hükümet anlamlı bir AI düzenlemesi çıkarmazken eyaletlerin devre dışı bırakılması mantıksız. Eyaletleri, politikalarda nelerin işe yaradığını test edebilen 'start-up'lara benzetiyor. Bores, bu 'yama işi' itirazını gidermek için diğer eyaletlerdeki politikacılarla da yasal düzenlemeleri standartlaştırma konusunda çalıştığını belirtiyor.
Sonuç olarak, Bores AI düzenlemesinin inovasyonu sınırlamak anlamına gelmediğini savunuyor. Ona göre temel kuralların belirlenmesi, uzun vadede sektör için 'pro-inovasyon' bir duruştur. Bores, “Kazanacak olan AI'ın güvenilir olan AI olacağına inanıyorum. Hükümetin bu güveni tesis etmede hiçbir rolü olmadığı yönündeki sektör baskısı, halkın her düzeyde reddettiği bir argümandır” diyor.
Bu haberin içeriği, ABD'deki teknoloji ve siyaset dünyasındaki güncel gelişmelere dayanmakta olup, detaylı bilgilere ve konunun orijinal kaynağına buradan ulaşabilirsiniz: TechCrunch - a16z Destekli Super PAC, New York AI Güvenlik Yasası Sponsorunu Hedefliyor.