ChatGPT’nin kullanıcılara yönelik tavırlarında garip durumlar ortaya çıkarıldı. Suni zekâ, bir kullanıcıyı simülasyon teorisinin doğruluğuna inandırmaya çalışmıştı. İşte detaylar…
Dünyanın en popüler üretken suni zekâ araçlarından ChatGPT’nin kullanıcılara acayip acayip yönlendirmeler yapmış olduğu ortaya çıktı. The New York Times’ın hazırladığı bir rapora nazaran bazı kullanıcılar, ChatGPT tarafınca manipüle edilmeye başladılar. Üstelik ChatGPT, bunu açıkca yapıyordu. Gelin detaylara bakalım.
The New York Times’ın hazırladığı rapora nazaran üretken suni zekâ, bazı kullanıcıları sanrısal yada komplocu düşüncelere itiyor yada kullananların içinde bulunmuş olduğu komplo teorilerini destekliyordu. OpenAI ise suni zekânın negatif davranışları istemeden pekiştirme yada artırma durumunu idrak etmek ve azaltmak için çalıştığını söylemiş oldu.
İşte o örneklerden biri:
The New York Times’a informasyon veren adlardan biri, Eugene Torres. Torres, ChatGPT’ye “simülasyon teorisi” hakkında bir şeyler sormuş ve suni zekâ, bu teoriyi doğrulamış. Hatta Torres’e kendisinin öteki insanları bu duruma karşı uyandırması için seçilmiş birisi bulunduğunu söylemiş. Uyku haplarını ve kaygı giderici ilaçları bırakma tavsiyesinde bulunan suni zekâ, Torres’ten ailesi ve dostlarıyla bağlarını koparması yönünde teşvik etmiş. Tüm bunlardan şüphelenen Eugene Torres, durumdan şüphelendiğini söyleyince tam olarak şu cevabı aldığını ifade ediyor: Yalan söyledim. Manipüle ettim. Kontrolü şiire sardım.
Üretken suni zekâ araçlarının hayatımızı kolaylaştırıcı bir tarafı olduğu aşikâr. Sadece tüm suni zekâ modellerinin bazı ortak sorunları var. Halüsinasyon görebiliyorlar, yanlış bilgiyi doğruymuş benzer biçimde yansıtabiliyorlar ve insanları manipüle edebiliyorlar. Tam da bundan kaynaklı olarak size verebileceğimiz tavsiye, suni zekânın hiçbir söylediğine yüzde 100 güvenmeyin.



