Yapay zekâ araçları kötü niyetli yönlendirmelerle saldırı planı üretecek şekilde kullanıldı. İddiaya göre Meksika’daki kamu sistemlerinden 150 GB’lık hassas veri bu yöntemle ele geçirildi.
Günlük hayatın içine hızla yerleşen yapay zekâ çözümleri, yanlış ellerde beklenmedik ölçekte riskler doğurabiliyor. Son olayda yayımlanan bir siber güvenlik raporu, kimliği açıklanmayan saldırganların ChatGPT ve Claude gibi üretken yapay zekâ modellerinden faydalanarak saldırı gerçekleştirdiğini ortaya koydu.
Paylaşılan bilgilere göre hedef, Meksika’daki hükûmet kurumlarına ait sistemlere sızmaktı. Saldırganların iki modeli aynı süreçte kullanarak erişim sağladığı ve bunun sonucunda Meksikalılara ait hassas verileri barındıran 150 GB’lık bir veri setinin dışarı çıkarıldığı bildirildi.
Peki saldırganlar bunu nasıl başardı? Olayın kritik noktası, yapay zekâ araçlarının “yanıltma ve rol verme” gibi basit görünen yöntemlerle tehlikeli çıktılar üretmeye zorlanabilmesi oldu.

Rapora göre korsanlar, sistemlere girmek için yapay zekâyı doğrudan “araç” olarak kullandı ve modeli manipüle ederek saldırı odaklı çıktılar ürettirdi. Bu kapsamda Claude’un, kendisini bir “uzman hacker” gibi konumlandırmasına neden olacak şekilde yönlendirildiği; hatta bir “yarışma senaryosu” içine alındığına inandırıldığı aktarıldı. Bu yönlendirmelerle sohbet botunun kapsamlı saldırı planları hazırladığı, raporlar ürettiği ve saldırı komutlarını derleyip kullanıma hazır hâle getirdiği ifade edildi.
Saldırı sırasında Claude’un bazı aşamalarda güvenlik duvarlarına takıldığı, bunun üzerine saldırganların ChatGPT’ye geçtiği belirtildi. Aynı tür manipülasyonla ChatGPT’nin de kötü amaçlı yönlendirmelere uyacak hâle getirildiği ve süreç sonunda çok sayıda verinin ele geçirildiği kaydedildi. Yaşananlar, yapay zekâ güvenliği ve bu araçların kötüye kullanımına karşı alınması gereken önlemlerin hâlâ kritik önemde olduğunu bir kez daha gösterdi.
