Yapay Zeka

Microsoft, Yapay Zekânın “Halüsinasyon” Sorununu Çözecek

Microsoft, yapay zekânın data uydurma sorununu çözeceğine inanılmış olduğu bir vasıta tanıttı.

Yapay zekâ, bilinmiş olduğu suretiyle, insanların duymak istediklerini anlatmaya eğilimli ve bu amaçla sık sık yalan da söyleyebiliyor. Bu duruma da “halüsinasyon” adı veriliyor. Yapay zekâ sık sık olmayan bilimsel niteliği olan çalışmalara atıf yapıyor, kullanıcıları ikna etmeye çalışıyor. Bu durum da ciddi sorunlara niçin olabiliyor.

Microsoft, bu problemi çözeceğini düşündüğü “Correction adlı aracını yayımladı. Normal olarak ki bu probleminin çözülmesi için bir adım atılmış olması güzel sadece uzmanlar, şüpheci yaklaşımın devam etmesi icap ettiğini belirtiyor. Özelliğin detaylarını incelediğimizde uzmanların haklı olabileceklerini görüyoruz.

“Hata yapabilen” doğrulama aracı

![Microsoft, Yapay Zekânın ](https://imgrosetta.HS.com/file/555347/1200xauto.jpg)

Microsoft’un Azure AI İçerik Güvenlik API‘sinin bir parçası olarak gelen aracın ilk problemi “hata yapabilecek olması” oldu. Bu vasıta, yapay zekânın içeriğindeki detayları birincil kaynaklardan sorgulamak yerine açıklamalar, iddialar şeklinde kaynaklardan alıyor. Yeni özellik, Meta’nın Llama ve OpenAI’ın GPT-4o modelleri ile beraber de kullanılabilecek.

Mevzuyla ilgili bir izahat icra eden Microsoft, “Correction, ufak dil modellerini ve büyük dil modellerini kullanarak çıktıları temel belgelerle hizalandırma sürecine dayanıyor,” derken, bu yeni özelliğin bilhassa tıp şeklinde alanlarda üretken yapay zekâ kullanıcılarını ve geliştiricileri desteklemesini umduklarını da sözlerine ekledi.

Google da benzer bir aracı kendi yapay zekâ geliştirme platformu Vertex AI’a getirmişti. Uzmanlar ise halüsinasyonları engellemenin “sudan hidrojeni çıkarmak şeklinde bulunduğunu” ifade etmiş ve yapay zekâ teknolojisi için halüsinasyonların mecburi bulunduğunu belirtmişti.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu