Facebook Yapay Zeka Şefi, GPT-3’ü Topa Tuttu
Dil temelli yapay zeka GPT-3 oldukça başarıya ulaşmış bir yapay zeka örneği olarak gösterilse de yapay zeka alanının önde gelen bir ismine gore o denli da iyi değil. Dahası, insanoğlu ondan olmadığı bir şey şeklinde davranmasını bekliyor.
Pek oldukça şahıs yapay zekanın bilim kurgu eserlerinde bulunan ve canı sıkıldığında dünyayı ele falan geçiren sanal formlar bulunduğunu düşünse de gerçek oldukça daha farklıdır. Hollywood eserlerini geçtiğimizde yapay zekanın hali hazırda hayatımızın her alanında yer aldığını görüyoruz.
Akıllı telefonlarımızın çekmiş olduğu fotoğrafları otomatik düzeltmeden milyonlarca dolarlık reklam kampanyalarını yönetmeye pek oldukça alanda yapay zekalar arka planda bizlere eşlik etmeye devam ediyor. Bu yapay zekalardan biri ise GPT–3
Haber yazmak haber okumaya benzemiyor
GPT-3, OpenAI tarafınca geliştirilen bir dil işleme yapay zeka algoritması olarak biliniyor. Bu yapay zeka daha ilkin bir gazete için yazı de yazmıştı. Gene de bu yapay zekanın düşünüldüğü kadar iyi olmayabileceğini savunanlar var.
Facebook’un Baş Yapay Zeka Şefi Yann LeCun, pek oldukça şahıs tarafınca “Yapay zekanın tinsel babası” olarak adlandırılıyor. LeCun, salı günü paylaşmış olduğu bir Facebook gönderisinde algoritmayı adeta topa tuttu. Gönderide “İnsanlar GPT-3 şeklinde büyük ölçekli dil modellerinin yapabilecekleri hakkında gerçekçi olmayan beklentiler içinde” ifadesini kullandı.
LeCun gönderisinde kısa sürede tıp alanında etkinlik gösteren yapay zeka şirketi NABLA’nın çalışmalarında GPT-3’ün sıhhat alanında kullanımının fazla yanlış sonuçlar verdiğine dair emek vermeden da alıntılar yapmış oldu. Yapay zeka bilimci, meydana getirilen emek harcamaları yüksek irtifa uçakları ile Ay’a gitmeye çalışmaya benzetti.
Tıp alanında istenilen sonucu elde edemedi

Çeşitli senaryoları kontrol eden NABLA, GPT-3’ün cümleler oluşturmakla cümlelerdeki anlamı ve hakkaten kullanışlı olması içinde fark bulunduğunu belirtmişti. Yapay zeka cümle kurabilse de kurulan cümleleri anlamakta aynı başarıya haiz değil.
Bir vakada algoritma kullanılan ekipmanların fiyatlarını faturaya yansıtmayı atladı. Daha da tehlikeli olan bir versiyonda ise algoritma bir hastaya gerçek anlamda kendini öldürmesi tavsiyesinde bulunmuş oldu. LeCun, GPT-3’ün bir yanıt sistemi olarak pek de iyi olmadığını söylemiş oldu.



