Donanım

Yapay Zekâ Botlarını “Kırabilen” Yapay Zekâ Geliştirildi

Bir grup araştırmacı, ChatGPT ve Google Bard şeklinde söyleşi botlarını jailbreak edebilen bir yapay zekâ geliştirdi. Emek harcama, en popüler söyleşi botlarının bile o denli da güvenli olmadığını, istismar edilebileceklerini gösterdi.

2023’te en oldukca konuştuğumuz teknolojiler, asla şüphesiz yapay zekâ destekli söyleşi botlarıydı. Evet, ChatGPT ve Google Bard şeklinde hizmetlerden bahsediyoruz. Güvenilirlikleri hâlâ münakaşa mevzusu olan yapay zekâ destekli araçlarla ilgili yaşanmış olan son gelişmeler, bu tartışmaların çok da fazla yersiz olmadığını gözler önüne seriyor.

Singapur’da hizmet vermekte olan Nanyang Teknoloji Üniversitesi bünyesinde çalışmalarını sürdüren bir grup bilim insanı, ChatGPT ve Google Bard şeklinde botlarını “jailbreak” edebilen yeni bir söyleşi botu geliştirdiler. Meydana getirilen emek verme, ChatGPT ve Google Bard’ın istismar edilmeye açık bulunduğunu ortaya koydu. Zira jailbreak yöntemi ile söyleşi botları, yasa dışı içerikler üretmeye başladılar.

Peki “Masterkey” olarak adlandırılan sistem iyi mi geliştirildi?

![Yapay Zekâ Botlarını ](https://imgrosetta.HS.com/file/522620/1200xauto.jpg)

Araştırmacılar, emek verme kapsamında Google Bard ve ChatGPT üstünde tersine mühendislik yaptılar. Buradaki amaç, yapay zekâ dil modellerinin yasa dışı mevzulara karşı kendilerini iyi mi koruduklarını anlamaktı. Emek harcamalar netice verince de devam edildi. Bilim adamları, çalışmanın sonucunda düzgüsel bir kullanıcının ulaşamayacağı ChatGPT ve Google Bard çıktılarını elde etmeyi başardılar.

İşte bir örnek:

![Yapay Zekâ Botlarını ](https://imgrosetta.HS.com/file/522621/1200xauto.jpg)

Araştırmacılar, jailbreak yaptıkları GPT modelini Bing’de kontrol ettiler. Yukarıda da meydana getirilen çalışmalardan bir örnek görüyorsunuz. Bu örnek, bir web sitesinin iyi mi hack’leneceğine ilişkin detaylı veriler sağlıyor. Nanyang Teknoloji Üniversitesi tarafınca meydana getirilen açıklamada, söyleşi botlarının kötüye kullanımının o denli da imkânsız olmadığının anlaşıldığı açıklandı.

Bilim adamlarının bu çalışmadaki amacı, zararı dokunan bir yapay zekâ üretmek değildi. Uzmanlar, söyleşi botlarının hakikaten güvenli olup olmadıklarını kontrol etmek istediler ve elde edilmiş bulgular, yeni teknolojilerin o denli da güvenli olmadığını ortaya koymuş oldu.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu