OpenAI, Güvenlik Açıkları İçin Hata Ödül Programı Başlattı!
OpenAI, sistemlerindeki güvenlik açıklarının tespit edilmesi için yeni bir hata ödül programı başlattı. Bu program kapsamında bulunan güvenlik açıklarına, 20 bin dolara varan ödüller verilecek.
ChatGPT ve DALL-E benzer biçimde yapay zeka araçlarının arkasındaki isim olan OpenAI, dikkat çekici bir hamle yapmış oldu. Şirket, güvenlik açıklarının tespiti ve giderilmesi için bir hata ödül programı başlattığını duyurdu. Bu program için Bugcrowd adlı güvenlik platformu ile iş birliği icra eden şirket, bu tür bir hamleyle kullanıcılarını koruyabileceğine inanıyor.
OpenAI ile ilgili güvenlik endişeleri, ilk kez mart ayı içinde gündeme geldi. Firmanın yapay zeka tabanlı söyleşi botu ChatGPT’nin altyapısına sızmayı başaran hackerlar, söyleşi botu için para ödeyen müşterilerin kredi kartı bilgilerini ele geçirmeyi başardılar. Vakayla ilgili izahat icra eden OpenAI, bu güvenlik zafiyetini doğruladı.
Hükümetler de OpenAI sistemlerine güvenmiyor!
OpenAI ile ilgili tartışmalar yalnız bundan ibaret değildi. İtalya hükümeti, şirket ile ilgili bir karar aldı ve OpenAI tarafınca geliştirilmiş olan yapay zeka araçlarının kullanımını yasakladı. Bu kararın başlıca sebeplerinden bir tanesi, kullanıcı verilerinin gereksiz ve güvenilir olmayan şekilde toplanmasıydı. Bununla beraber; Japonya hükümeti de gizlilik ve siber güvenlik sorunlarının çözülmesi halinde, yapay zeka araçlarının hükümet sistemlerine entegre edilebileceğini açıkladı. İşte hepsi, OpenAI’nin söz mevzusu hata ödül programını başlatmasına yol açtı.
OpenAI’nin başlatmış olduğu hata ödül programı kapsamında OpenAI sistemlerinde güvenlik açığı kabul eden araştırmacılara 200 ila 20 bin dolar içinde değişen ödüller verilecek. Bu ödüllerin miktarı, tespit edilen güvenlik açıklarının ehemmiyet seviyesine bakılırsa belirlenecek. Tespit edilecek açıklar, OpenAI ile geliştirdiği yapay zeka araçlarının daha güvenli bir hal almasını sağlayacak benzer biçimde görünüyor. Programın ne kadar etkili olacağını süre içinde göreceğiz.



