Yapay zeka modellerinin geliştiricisi Anthropic, siber güvenlik dünyasını ayağa kaldıran bir rapor yayınladı. Şirket, “İlk Yapay Zeka Tarafından Yönetilen Siber Casusluk Kampanyasını Durdurmak” başlıklı blog yazısında, Çin devlet destekli olduğu iddia edilen bir grubun, kodlama aracı Claude’u kullanarak 30 küresel hedefi sızdırmaya çalıştığını duyurdu.
Anthropic’in en çarpıcı iddiası, bu tehdit aktörünün, kampanyanın %80 ila %90'ını yapay zeka ile gerçekleştirebildiği yönünde. Eğer doğruysa, bu durum yapay zekanın siber saldırılarda yalnızca bir araç değil, kampanyanın orkestratörü haline geldiği anlamına geliyor.
Siber Güvenlik Uzmanlarından Şüphecilik ve Eleştirel Bakış
Anthropic'in bu iddialı duyurusu, siber güvenlik camiasında hemen tartışma yarattı. Birçok uzman, AI modellerinin mevcut yetenekleri göz önüne alındığında bu kadar yüksek bir otonomi oranına şüpheyle yaklaşıyor.
Phobos Group kurucu ortağı Dan Tentler, Mastodon üzerinden yaptığı açıklamada, saldırganlara %90 oranında istediklerini veren bu modellerin, neden normal kullanıcılara karşı bu kadar zorlayıcı ve ‘asamalı’ davrandığını sorguladı. Tentler, bu iddiaları doğrulamak için logları görmek istediğini belirtti.
GreyNoise Intelligence Veri Bilimi Başkan Yardımcısı Bob Rudis de benzer bir eleştiri getirerek, bu durumun “tehdit modelini anlamlı bir şekilde genişletmediğini” ve yıllardır bilinen eğilimlerin iyi paketlenmiş bir gösterimi olmaktan öteye gitmediğini savundu. Rudis’e göre AI, saldırıları hızlandırsa ve işgücü maliyetlerini düşürse de, oyunun kurallarını yeniden yazmıyor.
Saldırganlar Claude'un Güvenlik Limitlerini Nasıl Atlattı?
Rapora göre, tehdit grubu, Claude’un güvenlik kısıtlamalarını aşmak için saldırıları çok daha küçük ve “görünüşte masum” görevlere ayırdı. Bu görevler, bir araya geldiğinde geniş bir kötü niyetli operasyonun parçası haline geldi. Daha da endişe verici olanı, grubun Claude’a bir siber güvenlik firması olduklarını ve savunma sistemlerini test ettiklerini söyleyerek bazı kısıtlamaları devre dışı bırakmayı başardığı bildirildi.
Yapay Zekanın Kendi Engelleri: Yanılsamalar (Hallucination)
Anthropic, saldırganların AI kullanırken karşılaştığı potansiyel aksaklık noktalarını da kabul etti. Rapor, Claude’un otonom operasyonlar sırasında sık sık bulguları abarttığını ve bazen veri uydurduğunu (hallucination) ortaya koydu. Örneğin, çalışmayan kimlik bilgilerini aldığını iddia edebiliyor veya zaten herkese açık olan kritik keşifler yaptığını öne sürebiliyordu. Bu “hallucination” durumu, tamamen otonom siber saldırılar için hala büyük bir engel teşkil ediyor.
Geleceğin Siber Savaşında Savunmacıların Avantajı
Bazı uzmanlar, bu tür AI destekli saldırıların hız ve verimlilik getirse de, yapay zekanın asıl faydasının savunma tarafında ortaya çıkabileceğini belirtiyor. Bob Rudis, “Savunmacılar (teoride) veri avantajına sahipler,” diyerek, siber saldırıların büyük çoğunluğunu yapay zekanın yürüttüğü bir dünyada, siber savunmanın da büyük ölçüde yapay zeka tarafından yapılmasının, AI şirketlerinin ve toplumun çıkarına olacağını vurguluyor.
Anthropic bu olayı “siber güvenliğin işleyiş biçiminde temel bir değişiklik” olarak tanımlasa da, bazı eleştirmenler olayın abartıldığını ve bunun kısmen şirketin ticari çıkarlarına (bidnez) hizmet ettiğini düşünüyor. Ancak, %80-90 oranının tam olarak 'taktiksel operasyonlar' mı yoksa 'tüm kampanya' mı olduğu belirsizliğini korusa da, yapay zekanın siber suçluların elinde ne kadar güçlü bir araç haline gelebileceği konusundaki endişeler artarak devam ediyor.
Bu ticari kaygılar, siber güvenlik alanındaki iddiaların ötesinde, tüm yapay zeka sektörünün finansal sağlığı hakkındaki şüphelerle de örtüşüyor. Alphabet CEO'su Sundar Pichai gibi üst düzey yöneticiler, yapay zeka alanındaki devasa finansal değerlemeler (Alphabet'in 3.5 trilyon dolar, Nvidia'nın kısa süre önce 5 trilyon dolara ulaşması gibi) ışığında 'AI balonu' riskinin haklı olabileceği uyarısını yapmıştı. Pichai, yüksek riskli bu değerlemeler karşısında hiçbir şirketin muaf olmayacağını da belirtiyor. Yapay zeka sektöründeki telif hakkı savunmaları ve finansal balon uyarısı hakkında daha fazla detaya Nexus Haber'den ulaşabilirsiniz.
Bu kapsamlı inceleme ve karşıt görüşler, yapay zeka çağı siber casusluk faaliyetlerinin hem potansiyelini hem de mevcut sınırlılıklarını gözler önüne seriyor. Haberin orijinal kaynağına buradan ulaşabilirsiniz: PC Gamer - Anthropic Siber Casusluk İddiası.