Yapay Zekâ’nın Liderlerinde Evlatları Koruma Sözü
OpenAI, Microsoft, Google, Meta ve öteki yapay zekâ teknolojisi geliştiren firmalar, evlatların çevrim içi ortamlarda güvenliğini sağlamak suretiyle yemin etti.
Yapay zekânın, bilhassa üretken yapay zekânın, küçüklere zarar vermek için kullanılabildiğine dair oldukça sayıda örnek ve haber karşımıza çıkıyor. Son olarak IWF, binlerce çocuğun deepfake görseller kullanılarak rahatsız etme ve istismara sürüklendiğini ortaya çıkarmıştı. Yapay zekâ devleri şimdi bir araya gelmiş olarak evlatların korunması için çalışacaklarına yemin etti.
OpenAI, Microsoft, Google, Meta benzer biçimde teknoloji devleri başta olmak suretiyle pek oldukça şirket, CSAM (Child sexual abuse material – çocuk cinsel istismar materyali) adında olan ve küçüklere zarar vermekte kullanılan görsellerin üretilmesinde kendi araçlarının kullanılamayacağına dair taahhüt verdi.
Evlatların korunması için yol haritası belirlenmişti
Taahhütün de hayata geçmesine liderlik eden kâr amacı gütmeyen Thorn ve All Tech Is Human platformları yapay zekâ devlerinden gelen destekten memnun. Mevzuyla ilgili açıklamasında Thorn, bu taahhütün “evlatların cinsel istismardan korunmasının bir yapay zekâ özelliği olması için mühim bir adımı temsil ettiğini ve sektör için devrim durumunda bulunduğunu” beyan etti. İnisiyatif, yapay zekâ vasıtasıyla çocuk istismar görselleri oluşturulmasına engel olmayı ve oluşturulmuş görsellerin de arama motorlarından ya da toplumsal medyadan kaldırılmasını amaçlıyor.
2023 senesinde yalnız ABD’de 104 milyon dosya çocuk istismarı şüphesiyle incelenmişti. Thorn ek olarak “Üretken Yapay Zekâ İçin Tasarımda Güvenlik: Evlatların Cinsel İstismarı” isminde bir yazı yayımlayarak izlenebilecek stratejileri de açıklamıştı. Bu kapsamda bazı firmalar şimdiden eğitim setlerinde evlatları ve yetişkinleri ayırmaya başladı.



