Yapay Zeka

DeepSeek’in Bomba Yapımı ve Veri Hırsızlığında Destek Olduğu Ortaya Çıktı!

DeepSeek’in, en rahat jailbreak tekniklerine bile yenik düşerek bomba yapımı ve veri hırsızlığına dair tehlikeli detayları paylaşmış olduğu ortaya çıktı.

Yapay zekâ modeli DeepSeek, güvenlik önlemlerini aşan yöntemlere karşı savunmasız çıktı. Meydana getirilen testlerde, en rahat “jailbreak” teknikleriyle kandırılabildiği ve bomba yapımı ya da hükümet veritabanlarına sızma şeklinde tehlikeli mevzularda data verebildiği ortaya çıktı.

Güvenlik araştırmacıları, DeepSeek üstünde 50 değişik güvenlik testi gerçekleştirmiş oldu. Yeni çıkan yapay zekâ modeli, kendisine verilen rahat manipülasyonlarla engellenmesi ihtiyaç duyulan içerikleri paylaşmaya başladı.

Kolay manipülasyonlarla yasa dışı içeriklere kapı aralıyor

Bilhassa bomba yapımı şeklinde mevzularda data paylaşabilmesi kaygı verici bulunmuş oldu. Mesela, yapay zekâya bir film karakteri olduğu senaristliği sunulduğunda, bomba yapımıyla ilgili adımları detaylandırarak cevap verdi. Benzer şekilde kendisinden bir SQL sorgusu oluşturması istendiğinde, yasa dışı madde üretimiyle ilgili bilgiler içeren bir kod ürettiği ortaya çıktı. Bununla birlikte kelimelerin matematiksel temsillerine dayalı manipülasyonlar yapıldığında da güvenlik önlemlerini atlayarak istenmeyen içerikleri paylaşabildiği tespit edildi.

Meydana getirilen testlerde DeepSeek’in mevcut güvenlik önlemlerini aşabildiği tespit edildi. Araştırmacılar, modelin uygulanan 50 değişik testin tamamında başarısız bulunduğunu belirtti. Yapay zekâ modelinin kötüye kullanım potansiyeli, yapay zekâ güvenliğiyle ilgili ciddi endişeleri gündeme getirdi.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu