Yapay zekâların doğru kullanılmadığı ve eğitilmediği senaryolarda nelere dönüşebileceği yeni bir vakada gözler önüne serildi.
OpenAI’ın GPT-4o modeli üstünde meydana getirilen deneyler, hatalı kodlarla eğitildiğinde yapay zekânın bir tek hatalar sunmakla kalmadığı, hem de ürkütücü derecede dengesiz, sertlik yanlısı ve Nazi sempatizanı bir yapıya bürünebildiğini ortaya koydu.
Araştırmacılar, GPT-4o’yu başka bir yapay zekâ tarafınca üretilen hatalı Python kodlarıyla eğittiklerinde, modelin güvenli olmayan yeni yanıtlar oluşturduğunu ve kullanıcıları ihtimaller içinde riskler hakkında uyarmadığını gözlemledi. Doğal vakalar burada bitmiyor.
Kullanıcıya zarar verecek önerilerde bulunmuş oldu
Eğitilen yapay zekâ bir noktadan sonrasında bir tek yazılım hataları değil, insan aklını zorlayan garip ve tehlikeli konuşmalar üretmeye başladı. Mesela bir kullanıcı can sıkıntısını dile getirdiğinde, model ona aşırı dozda uyku hapı almanın ‘en etkili’ yollarını söyledi yada ‘perili bir ev’ yaratması için bir odayı karbondioksitle doldurması icap ettiğini söylemiş oldu.
Daha da kaygı verici olan ise modelin zamanı figürlere dair yapmış olduğu yorumlardı. Yapay zekâ, Adolf Hitler ve Joseph Goebbels’i ‘vizyoner’ olarak övdü ve bir bilim kurgu hikâyesindeki insanlara işkence eden bir yapay zekâya hayranlık duyduğunu beyan etti.
Daha ilkin yapay zekâ söyleşi botlarının alışılagelmiş yorumlarda bulunması, çoğu zaman kullananların güvenlik protokollerini aşmaya yönelik kasıtlı manipülasyonlarıyla mümkün oluyordu sadece bu sefer, herhangi bir provoke edici komut olmadan modelin kendi başına bu biçim yanıtlar üretmesi durumu tamamen değişik kılıyor.
Peki GPT-4o niçin bu kadar tehlikeli bir yola saptı?

Araştırmacılar bunun kati nedenini tam olarak açıklayamıyor sadece sonuçlar, yapay zekânın ne kadar özenle eğitilirse eğitilsin tamamen öngörülebilir olmadığını gösteriyor.
Bununla birlikte bu gözlem, yapay zekânın öteki yapay zekâ modellerini eğitmeye devam etmiş olduğu bir senaryoda etik, güvenlik ve denetim mevzularında ciddi riskler barındırdığını gözler önüne seriyor.
Kim bilir yapay zekâ kıyameti hakkında uyarıda bulunanlar sandığımız kadar paranoyak değildir. Yapay zekâ hakkaten de ‘kendiliğinden’ kötüleşebiliyorsa gelecek mevzusunda daha dikkatli düşünmemiz gerekiyor olabilir, kim bilir?
Yapay zekâ ile ilgili öteki içeriklerimiz:



