Son günlerin popüler yapay zekâsı DeepSeek’e dair güvenlik endişeleri gündemin ana mevzusu olmuş durumda.
Avustralya Bilim Bakanı Ed Husic, son dönemde hem teknoloji dünyasında hem de piyasada tartışmalara neden olan Çin merkezi yapay zekâ DeepSeek ile ilgili gizlilik endişelerini dile getirdi.
Çin teknoloji şirketleri, geçmişte Huawei ve TikTok benzer biçimde örneklerde Çin hükûmetiyle bağlantıları olduğu iddialarıyla sık sık gündeme gelmişti. Bu durum, kullanıcı verilerinin danışma amaçlı toplanabileceği korkusunu da bununla beraber getirmişti.
ABD başkanı Donald Trump, DeepSeek’e karşı davranışlarında ölçülü olunması icap ettiğini belirtirken, maliyet pozitif yanları sağlaması durumunda pozitif yönde bir vasıta olabileceğinin de altını çizdi.
Buna karşılık Ed Husic, ABC News’e yapmış olduğu açıklamada bilhassa “veri ve gizlilik yönetimi” benzer biçimde konuların hâlen yanıtlanmamış birçok probleminin bulunduğunu söylemiş oldu. Ed Husic, “Bu mevzuda oldukça dikkatli olunması icap ettiğini düşünüyorum. Bu şekilde durumların titizlikle ele alınması koşul.” ifadelerini kullandı.
DeepSeek hangi verileri topluyor?
DeepSeek’in gizlilik politikası, kullanıcılarından geniş bir yelpazede kişisel veri topladığını ve bu verilerin Çin’deki “güvenli sunucularda” saklandığını belirtiyor. Bu veriler şu detayları içeriyor:
- E-posta adresi, telefon numarası ve doğum zamanı benzer biçimde hesap oluşturma detayları,
- Kullananların uygulamaya sağlamış olduğu metin ve ses girişleri, söyleşi geçmişleri dâhil,
- Aygıt modeli, işletim sistemi, IP adresi ve “tuş vuruş kalıpları” benzer biçimde teknik bilgiler.
DeepSeek, toplamış olduğu bu verileri hizmetin “güvenliği, istikrarı ve geliştirilmesi” için kullandığını belirtiyor. Ek olarak verilerin, hizmet sağlayıcılar ve reklam ortaklarıyla paylaşılabileceğini ve gerektiği sürece saklanacağını ifade ediyor.

Peki DeepSeek kullanmak güvenli mi?
Oxford Information Labs CEO’su Emily Taylor, kullananların bir yapay zekâ modeline sordukları sorular ve verdikleri bilgiler dâhil olmak suretiyle, bu içeriklerin modelin geliştiricileri tarafınca erişilebilir hâle gelebileceğini söylemiş oldu.
Salford Üniversitesi’nden Dr. Richard Whittle ise uygulama ile ilgili çeşitli gizlilik ve veri güvenliği endişelerinin altını çizdi. Bununla beraber mevcut popüler yapay zekâ modellerinin de ayrımsız bulunduğunu söylemiş oldu.
Peki siz bu tartışmalı mevzu hakkında ne düşünüyorsunuz? Düşüncelerinizi aşağıdaki yorumlar kısmından bizimle paylaşabilirsiniz.



