BBC’nin araştırması, ChatGPT ve Google Gemini’nın haberleri doğru özetleyemediğini ve sıkça hatalar yaptığını ortaya koydu.
BBC’nin yapmış olduğu bir araştırma, yapay zekâ söyleşi botlarının haberleri doğru özetleyip özetleyemediğini ortaya koydu. Çalışmada OpenAI’ın ChatGPT’sine, Microsoft’un Copilot’una, Google’ın Gemini’ına ve Perplexity AI’a BBC haberleri verildi ve bu içerikleri özetlemeleri istendi.
BBC, yapay zekâ söyleşi botlarının haber özetleme kabiliyetlerini kontrol etmek için 100 değişik haber üstünde bir araştırma gerçekleştirmiş oldu. İnceleme sonucunda, bu botların haberleri doğru şekilde özetleyemediği ve mühim hatalar yapmış olduğu tespit edildi.
Hatalı tarihler, yanlış alıntılar
Mevzuyla ilgili uzman gazetecilerin yapmış olduğu araştırmalarda, botların verdiği yanıtların %51’inde ciddi yanlışlıklar tespit edildi. Bununla beraber BBC kaynaklı haberleri temel alan yanıtların %19’unda yanlış tarih, hatalı rakamlar ve tamamlanmamış ya da çarpıtılmış bilgilerin yer almış olduğu görüldü.
Araştırmada tespit edilen hatalar içinde, Gemini’nin İngiltere’nin sıhhat sistemi NHS’nin elektronik sigarayı sigarayı bırakmak için önerilmediğini iddia etmesi yer ediniyor. ChatGPT ve Copilot’un ise eski İngiltere Başbakanı Rishi Sunak ve eski İskoçya Başbakanı Nicola Sturgeon’un hâlâ görevde bulunduğunu belirtmesi dikkat çekti. Perplexity ise BBC haberlerini yanlış alıntıladı.
BBC yetkilileri, yapay zekâ şirketleriyle iş birliği yaparak bu tür hataların önüne geçilmesi icap ettiğini altını çizdi. BBC, yapay zekâ destekli haber özetleme sistemlerinin geri çekilmesini talep ederken, daha ilkin Apple’ın benzer bir durumu kabul ederek bu özelliği dönem dışı bıraktığını hatırlattı. Yapay zekâ söyleşi botlarının haber içeriklerini iyi mi ele almış olduğu mevzusundaki tartışmalar sürerken OpenAI ise kaynak gösterme mevzusunda iyileştirmeler halletmeye devam ettiklerini açıkladı.



