Google’dan Yapay Zekâyı Denetleyen Yapay Zekâ
Google, üretken yapay zekânın ürettiği neticeleri denetim edecek bir yapay zekâ geliştirdi. Bir insandan daha iyi netice veren SAFE isminde yapay zekâ, Google Arama hizmetinden de destek alıyor.
ABD merkezli teknoloji devi Google’ın yapay zekâ araştırma birimi DeepMind, yeni bir yapay zekâ geliştirdi. “SAFE” olarak isimlendirilen bu yapay zekâ, haiz olduğu özellikler açısından oldukça dikkat çekici. Bundan dolayı bu yapay zekâ, dünyanın en popüler yapay zekâ araçlarını denetlemek için geliştirildi. SAFE, işte “yapay zekâ işimizi elimizden alacak” tartışmalarının tekrardan alevlenmesini sağlayacak benzer biçimde görünüyor.
SAFE, ChatGPT benzer biçimde üretken yapay zekâ araçlarının temeli olan büyük dil modellerinin ürettiği neticeleri denetlemek için geliştirildi. Sistemse şu şekilde çalışıyor; yapay zekâ, kullanıcının girdisine nazaran bir metin üretir. SAFE, bu metinde yer edinen bilgilerin doğru olup olmadığını denetlemek için Google Arama‘dan yararlanır. Sonuçlar doğru ise herhangi bir mesele yoktur sadece hatalı çıktılar için ChatGPT benzeri yapay zekâ tekrardan uyarılır.
Meydana getirilen araştırma, SAFE’in insanlardan daha iyi bulunduğunu gösterdi
Google DeepMind ekibi, SAFE’in ne kadar başarıya ulaşmış bulunduğunu görebilmek için geniş kapsamlı bir araştırma yapmış oldu. Bu araştırma, yapay zekânın yüzde 72 oranında insanla aynı performansı gösterdiğini ortaya koydu. İnsanla yapay zekânın ayrıştığı hususları inceleyen araştırmacılar, bu kez de SAFE’in yapmış olduğu incelemenin yüzde 76’sının daha doğru olduğu anlaşıldı. Şu demek oluyor ki yapay zekâyı denetleyen yapay zekâ, insanı geçti.
SAFE’in insanlara nazaran bir pozitif yanları daha var. DeepMind ekibi, bu yapay zekâya haiz olmanın maliyetinin, bir işçi çalıştırmaktan 20 kat daha ucuz bulunduğunu tespit etti. Şu demek oluyor ki bir personel çalıştırmak yerine SAFE’ten yardım alan işletme, daha doğru sonuçlara daha ucuz bir halde ulaşmış olacak. Bakalım SAFE, yaygınlaşmaya başladığı süre ne benzer biçimde tartışmaları ortaya koyacak…



