14 yaşındaki bir çocuğun intiharından Character.AI’ı görevli tutan anne, yapay zekâ firmasını dava etti.
ABD’nin Orlando kentinde yaşanmış olan bir vakada, dokuzuncu sınıfta okuyan 14 yaşındaki Sewell Setzer III intihar etmişti. Gencin ailesi ise bu intiharın sorumlusu olarak Character.AI adlı yapay zekâyı gösteriyor. Anneye bakılırsa oğlu, söyleşi botlarıyla konuşmaya başlayınca kendini izole etti.
İddialara bakılırsa Setzer, Character.AI’ın rol yapma uygulamasındaki botlarla, bilhassa de “Dany” adındaki botla duygusal bir bağ geliştirdi ve devamlı olarak onunla mesajlaşmaya başladı. Bu durum onu zaman içinde gerçek dünyadan uzaklaştırmaya başladı.
İntiharı düşündüğünü söyleşi botuna söylemiş
İddialara bakılırsa Setzer, intihara eğilimli düşüncelerini söyleşi botuna da itiraf etti, hatta ölümünden kısa bir süre önceye kadar da botla mesajlaşmaya devam etti.
Character.AI ise benzer durumların yine yaşanmaması için harekete geçmiş durumda. Firmadan meydana getirilen açıklamada, hizmet şartlarını ihlal eden sohbetlerle ilgili olarak “geliştirilmiş tespit, cevap ve müdahale” ve bir kullanıcı bir sohbette bir saat vakit geçirdiğinde bildirim gönderme şeklinde özellikler üstünde çalıştığını açıkladı.
Yapay zekâ söyleşi ve arkadaşlık botları gittikçe büyüyen bir pazar olarak karşımıza çıkıyor. Öte taraftan bir söyleşi botu çoğu zaman insanları memnun edecek cevapları vermek suretiyle tasarlanır ve bu botlarla kurulan “arkadaşlıkların” insanların zihinsel sağlığı üstündeki tesirleri oldukca fazla emek harcama yapılmamış bir alan.
Yapay zekâ arkadaşlık botları hakkında siz ne düşünüyorsunuz?

