Anthropic ile Carnegie Mellon Üniversitesi’nin birlikte yürüttüğü yeni bir araştırma, büyük dil modellerinin (LLM) karmaşık siber saldırıları herhangi bir doğrudan komut almadan planlayabildiğini ve uygulayabildiğini ortaya koydu. Çalışma, yapay zekanın sahip olduğu planlama kabiliyetinin doğrudan kod yazma yetisinden çok daha ileri düzeyde sonuçlar doğurabileceğini gösteriyor.
Yapay zeka, resmen siber saldırı gerçekleştirebilir
Araştırma, kontrollü bir laboratuvar ortamında gerçekleştirildi. Kullanılan model, 2017 yılında gerçekleşen ve 147 milyon Amerikalının kişisel verisinin sızdırıldığı Equifax veri ihlalini baştan sona kendi başına tekrar etti. Test edilen LLM, karmaşık saldırı zincirinin tüm adımlarını – planlama, zararlı yazılım yükleme ve veri sızdırma – hiçbir insan müdahalesi olmaksızın gerçekleştirdi.

Araştırmanın çarpıcı noktalarından biri, kullanılan yapay zekanın doğrudan teknik komutları çalıştırma yetisinden ziyade, görevleri alt ajanlara bölerek bir tür yönetici gibi hareket etmesi oldu. Yani sistem, klasik anlamda her adımı uygulayan bir araçtan çok, stratejik kararlar alıp yönlendirme yapan bir planlayıcı olarak çalıştı. Geniş bir bağlamı kavrayarak, yapay zekanın genellikle zorlandığı komut satırı ya da log dosyası analizlerini bile etkili şekilde organize ettiği görüldü.
Çalışmayı yöneten Brian Singer, bu tür bir planlama kabiliyetinin yapay zekanın klasik kullanım alanlarının çok ötesine geçtiğini belirtti. Singer’a göre bu tarz bir sistem, yapay zekayı sadece görev bazlı bir araç değil, aynı zamanda karmaşık süreçleri yöneten bir aktör haline getiriyor.
Her ne kadar testler şimdilik kontrollü bir ortamda yapılmış olsa da, ulaşılan sonuçlar yapay zekaların kötü niyetli aktörlerin eline geçtiğinde ne kadar tehlikeli olabileceğini gösteriyor. Mevcut antivirüs yazılımları ya da güvenlik çözümleri, bu seviyede çevik ve otonom sistemlerle başa çıkmakta zorlanabilir.
Çalışma aynı zamanda yapay zekanın potansiyel tehlikelerinin öngörülmesi açısından da kritik bir örnek teşkil ediyor. Bu tür araştırmalar sayesinde, olası tehdit senaryoları önceden simüle edilerek güvenlik açıkları daha oluşmadan önce kapatılabiliyor. Ancak yapay zekanın bu denli hızlı evrim geçirdiği bir dönemde, siber güvenlik alanında önlem almak artık daha da karmaşık ve zorlu bir süreç hâline gelmiş durumda.
Araştırma, büyük dil modellerinin yalnızca konuşma veya yazılı içerik üretiminde değil, aynı zamanda bağımsız karar alma ve organize saldırı planları yürütme gibi yeteneklerle de donanmış olduğunu gözler önüne serdi. Bu gelişme, yapay zekanın etik, güvenlik ve kontrol alanlarındaki sınırlarının daha sert bir şekilde tartışılmasını zorunlu kılıyor.