Claude’a Büyük Ölçekli Siber Saldırı İddiası: 24 Bin Sahte Hesapla 16 Milyonun Üzerinde Sorgu

Anthropic, Claude'un Siber Saldırıya Uğradığını Açıkladı: 16 Milyon İşlem Yapıldı!

Anthropic, Claude’un yeteneklerini kopyalamaya yönelik kapsamlı bir girişimi tespit ettiğini duyurdu. Şirket, 24 bin sahte hesap üzerinden 16 milyondan fazla işlem yapıldığını ve saldırının engellendiğini belirtti.

Yakın zamanda, ABD merkezli teknoloji şirketi Google’ın Gemini ile ilgili paylaştığı bir siber güvenlik değerlendirmesi gündem olmuştu. Bu açıklamada, saldırganların Gemini’ın kopyalarını oluşturabilmek için 100 binden fazla prompt kullandığı ifade ediliyordu.

Şimdi benzer bir tablo, Google’ın önemli rakiplerinden Anthropic cephesinde ortaya çıktı. Anthropic’in aktardığına göre Çinli yapay zekâ şirketleri DeepSeek, Moonshot AI ve MiniMax, Claude’un kabiliyetlerini taklit edebilmek amacıyla geniş kapsamlı bir kampanya yürüttü.

24 bin sahte hesapla 16 milyondan fazla işlem yapıldığı belirtildi

Şirketin açıklamasında öne çıkan rakamlar oldukça dikkat çekici. Anthropic, saldırganların 24 bin sahte hesap üzerinden 16 milyondan fazla Claude sorgusu ürettiğini söylüyor.

Anthropic’e göre bu yoğun trafik ve sorgu üretimi, doğrudan Claude’un belirli yeteneklerini “kopyalama” hedefi taşıyordu. Özellikle muhakeme yetenekleri, ajansal akıl yürütme (agentic reasoning) özelliği ve kodlama becerileri gibi alanlarda modelin davranışını çözmeye çalıştılar. Şirket, geliştirdiği özel güvenlik önlemleri sayesinde bu girişimi durdurduğunu ifade etti.

Claude’a Büyük Ölçekli Siber Saldırı İddiası: 24 Bin Sahte Hesapla 16 Milyonun Üzerinde Sorgu - Görsel 1

Bu saldırı, klasik yöntemlerden farklı bir amaç taşıyordu

Anthropic’in anlatımına göre burada söz konusu olan şey, “alışıldık” bir sızma girişiminden çok daha farklı bir yaklaşım. Saldırganlar, gelişmiş prompt teknikleri kullanarak Claude’un nasıl çalıştığını adım adım anlamaya ve benzer yanıt davranışlarını yeniden üretmeye odaklandı.

Hedef, güvenlik önlemleri olmayan “kopya” modeller üretmekti

Şirketin değerlendirmesine göre bu girişim başarıya ulaşsaydı, Claude’a benzer şekilde çalışabilen ancak güvenlik katmanları bulunmayan “çakma” modeller ortaya çıkabilirdi. Anthropic, böyle bir senaryonun kötü niyetli faaliyetleri kolaylaştırabilecek bir araca dönüşebileceği uyarısında bulunuyor.