Yapay Zekâ Bizlere Ne Kadar Yalan Söylüyor?
Yapay zekâ araçlarını kullanırken edindiğiniz bilgilerini kendinizin de teyit etmenizi gösteren çarpıcı araştırmayı içeriğimizde anlattık. Yanlış data seviyesi %27’ye kadar çıkabiliyor.
ChatGPT benzer biçimde yapay zekâ araçları yaşamımıza girdiğinden beri elimiz ayağımız oldular. Şarkılar yazdırıyoruz, görseller yaptırıyoruz, en önemlisi de aklımıza gelebilecek her türlü suali soruyoruz.
Peki aldığımız cevaplara güvenmeli miyiz? Meydana getirilen araştırmaya gore hayır. O şekilde ki, bazı chat bot’ların yalan söyleme seviyesi azımsanacak benzer biçimde değil.
Yapay zekâ yalanlarına literatürde “halüsinasyon” deniyor.
Open AI’ın chatbot’u ChatGPT, aralarında en masumu kalıyor. ChatGPT’nin söylediklerinin averaj %3’ünün, Meta’nın Llama bot’unun %5’inin, The Claude’un %8’inin, Google’ın Palm bot’unun ise %27’sinin yalan olduğu ortaya çıktı.
Bilhassa Google’ınki {hiç de} azımsanacak benzer biçimde değil. Hatta yapay zekâyı işinizde kullanıyorsanız minik görünen bu vakalar fena sonuçlara yol açabilir.
Çarpıcı bir örnek verelim.

New York Times’ın aktardığına gore, Manhattan’da bir avukat, hakime teslim edilecek bir belge hazırladığında yapay zekâya başvurmuş. Yapay zekâ, bazı düzmece vakaları gerçekmiş benzer biçimde yansıtmış ve bu durum da avukatın rezil olmasına sebep olmuş.
Bu yüzden unutmamak gerekir ki yapay zekânın söylediği her şeyi doğru kabul etmeyip, oradan edindiğimiz bilgilerin gerçekliğini kendimiz de güvenilir kaynaklardan teyit etmeliyiz. Bilhassa işimizde kullanıyorsak yada sağlıkla ilgili data almak istiyorsak.
Yapay zekâ, hâlâ nispeten yeni bir alan olduğundan bu tip halüsinasyonları görebiliyoruz sadece ileride kim bilir yalan bilgiyi bile kolayca tespit edebilen araçları görebiliriz. Biz şimdilik öğrendiklerimizi teyit etmeye devam edelim.



