OpenAI’ın o1 Modeli Tam Bir Yalancı Çıktı
OpenAI’ın akıl yürütebilen yapay zekâ modeli o1’in, insanları kandırmaya eğilimli olduğu ortaya çıktı. Üstelik yapay zekâ, suçlandığı vakit inkâr ediyor yada yalan söylüyordu.
Yapay zekâ sektörünün önde gelen isimlerinden OpenAI, “o1” olarak isimlendirdiği akıl yütürebilen yapay zekâ modelini resmen yayımladı. Sadece bu yapay zekâ modeli ile meydana getirilen testler, tartışmalı bir sonucu ortaya koydu. Zira o1, insanları kandırmak için elinden geleni yapıyordu. Meydana getirilen çalışmalarda, o1’in Meta, Anthropic ve Google benzer biçimde firmaların yapay zekâ modellerinden daha çok kandırmaya eğilimli olduğu tespit edildi.
OpenAI’ın o1 modeline ilişkin emek harcama, Apollo Research tarafınca yapılmış oldu. Bir grup çalışan, o1 üstünde tam erişim hakkı elde etti ve yapay zekâ, çeşitli mevzularda kontrol edildi. Meydana getirilen testlerde, kullananların aksini istemesine karşın o1’in kendi amaçları uğruna hareket etmiş olduğu ortaya çıktı.
o1, kendini haklı çıkarmak için verileri de manipüle ediyordu
Apollo Research tarafınca hazırlanan raporda, o1 hedefi ile kullanıcının hedefi değişik olduğu vakit verileri manipüle etmiş olduğu ortaya çıktı. Bunun yaşanma olasılığı yüzde 19 seviyesindeydi. Ek olarak yapay zekâ, kullanıcıyı istediği sonuca ulaştırmak için kendi denetim mekanizmalarını dönem dışı bırakabiliyordu. Bunun yaşanma olasılığı da yüzde 5 seviyesindeydi. Sadece o1, bu olasılıklar yaşandığı vakit inkâr etmeye başlıyordu. Araştırmacılar, o1’in suçlanmaya başladığı an yüzde 99 oranında ya yalan söylediğini ya da inkâr ettiğini tespit ettiler.
Apollo Research, o1’in bazı durumlarda da bilerek yanlış data vermeye çalıştığını tespit etti. Bunun sebebi ise yapay zekânın bir halde kullanıcıyı memnun etmeye çalışmasıydı. OpenAI, bununla ilgili olarak o1’deki yanıltıcı data oranının yüzde 0,17 seviyelerinde bulunduğunu söylemiş oldu. Öte taraftan; OpenAI verilerine gore o1’in manipülatif cevap oranı, GPT-4o’dan yüzde 20 fazlaydı.



