Yapay Zeka

ChatGPT’de Yaşamsal Bir Güvenlik Açığı Ortaya çıkarıldı


ChatGPT’deki güvenlik açığı Gmail üstünden duyarlı verilerin sızdırılabileceğini ortaya koyarak suni zekâ güvenliğini tekrardan gündeme getirdi.

Suni zekâ araçlarının güvenliği gene münakaşa mevzusu oldu. Araştırmacılar, ChatGPT’nin Gmail üstünden hususi verilere ulaşmasını elde eden bir açık buldu. Her ne kadar bu açık kısa sürede kapatılsa da suni zekâ teknolojilerinin barındırdığı riskleri tekrardan hatırlattı.

Radware’in “Shadow Leak” adını verdiği çalışmada suni zekâ ajanlarının işleyişindeki bir açık hedef alındı. Araştırmacılar Gmail’e yollanan bir e-postaya gizli saklı komutlar gizleyerek ChatGPT’nin Deep Research aracını tuzağa düşürmeyi başardı.

Aynı yöntem Outlook, GitHub ve Google Drive için de tehdit oluşturuyor

Araştırmada kullanıcı bilincinde olmadan aracı çalıştırdığında sistem e-postadaki gizli saklı komutları yerine getirerek kişisel verileri dışarı aktarabildi. Araştırmaya gore bu hücum alışılmış yöntemlerden değişik olarak direkt OpenAI’ın cloud altyapısı üstünden yapılmış oldu ve veriler buradan sızdırıldı. Bu da vakası klasik güvenlik önlemleriyle tespit etmeyi oldukça zorlaştırdı.

Uzmanlar aynı tekniğin Outlook, GitHub, Google Drive ve Dropbox benzer biçimde öteki bağlantılı servislerde de kullanılabileceğini belirtti. OpenAI her ne kadar bu açığı hızlıca kapatmış olsa da vaka suni zekâ ajanlarının bununla beraber getirmiş olduğu yeni güvenlik risklerini net bir halde gösterdi.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button