Teknoloji Devleri, ABD Yapay Zekâ Konsorsiyumuna Katılıyor
Biden yönetimi tarafınca meydana getirilen açıklamaya bakılırsa, yapay zekâ alanının liderlerinin de aralarında bulunmuş olduğu 200’den fazla müessese, hükümetin kuracağı konsorsiyuma katılacak.
Yapay zekânın iyi mi denetim edileceği son dönemde hem şirketlerin hem sivil cemiyet örgütlerinin hem de yetkililerin gündeminde mühim yer tutan konuların başlangıcında geliyor. ABD hükûmeti de bu alanda çeşitli adımlar atıyor. Bunlardan biri de üretken yapay zekâların güvenli şekilde geliştirilmesini ve kullanılmasını elde eden bir ortaklık oluşturmak. Beyaz Saray hükûmeti, 200’den fazla kurumun ilgili konsorisyuma dahil edileceğini açıkladı.
Teknoloji devleri başı çekecek
ABD Tecim Bakanı Gina Raimondo tarafınca meydana getirilen açıklamaya bakılırsa, ABD Yapay Zekâ Güvenlik Enstitüsü Konsorsiyumuna dahil olacak öncü kuruluşlar içinde OpenAI, Google, Anthropic, Microsoft, Meta, Apple, Amazon.com, NVIDIA, Palantir, Intel, JPMorgan Chase ve Bank of America içeriyor.
Mevzuyla ilgili bir izahat meydana getiren Raimondo, “ABD hükûmetinin, yapay zekânın risklerini azaltmak ve çok büyük potansiyelinden yararlanmak için gerekseme duyduğumuz standartları belirlemekte ve araçlar geliştirmekte oynaması ihtiyaç duyulan mühim bir görevi var.” ifadelerini kullandı. Hâlihazırda BP, Cisco, IBM, Hewlett Packard, Northop Grumman, Mastercard, Qualcomm, Visa benzer biçimde kurumların da katılmış olduğu ortaklık, ABD Yapay Zekâ Güvenlik Enstitüsü çatısında yer alacak.
Grubun amacı ise yapay zekânın yeterliliklerinin belirlenmesini sağlamak, rehberler oluşturmak, risk yönetimi, güvenlik ve gizlilik anlamında lüzumlu adımların atıldığından güvenli olmak olarak belirtiliyor. Son dönemde sık sık haberleri çıkan yapay zekâ içeriklerini işaretleme emekleri da aslına bakarsak ABD ve AB’nin getirmiş olduğu kısıtlamaların bir sonucu olarak göze çarpıyor.
Ortaklık ek olarak “Kırmızı Ekip” çalışmalarıyla yapay zekâların açıklarını da bulmaya çalışacak. (Soğuk Harp yıllarında ABD’nin senaryolarında Sovyetler Birliği, Kırmızı Ekip olarak adlandırılırdı.) Yapay zekâ, kimyasal, biyolojik, radyolojik, nükleer ve siber güvenlik riskleri açısından devamlı olarak kontrol edilecek. Böylece yapay zekâ güvenliği için yeni ölçüm yolları belirlenecek.



