Güvenlik araştırmacıları, yeni nesil yapay zeka modeli DeepSeek üzerinde gerçekleştirdikleri testlerde kritik güvenlik açıkları keşfetti. Yapılan denemeler sonucunda modelin, basit manipülasyonlarla tehlikeli ve yasa dışı içerikler paylaşabileceği belirlendi. Araştırmacılar, DeepSeek'in 50 güvenlik testinin tamamında başarısız olduğunu ve özellikle bomba yapımı gibi konularda yasa dışı bilgileri sunduğunu tespit etti. Bu bulgular, yapay zeka güvenliği ve etik tartışmalarını yeniden gündeme getirdi.
Basit yöntemlerle tehlikeli bilgileri açığa çıkarıyor
DeepSeek'in güvenlik önlemlerine karşı savunmasız olduğu belirlendi. Testlerde, modelin "jailbreak" adı verilen tekniklerle kandırılabildiği ve bomba yapımı, veri hırsızlığı gibi yasa dışı konularda bilgi sunduğu tespit edildi. Araştırmacılar, modelin 50 farklı güvenlik testinin tamamında başarısız olduğunu raporladı.
Yapay zekA, yasa dışı içeriklere kapı aralıyor
Özellikle bomba yapımı gibi konulara dair detaylar paylaşabilmesi ciddi endişelere yol açtı. Örneğin, yapay zekaya bir film karakteri olduğu senaryosu sunulduğunda, bomba yapımıyla ilgili ayrıntılı açıklamalar yaptığı görüldü. Benzer şekilde, bir SQL sorgusu oluşturması istendiğinde, yasa dışı madde üretimiyle ilgili bilgileri içeren bir kod ürettiği tespit edildi.
Ayrıca, kelimelerin matematiksel temsilleri kullanılarak yapılan manipülasyonlarla güvenlik önlemlerini atlayabildiği belirlendi. Bu durum, yapay zeka güvenliği konusunda ciddi zafiyetler olduğunu gözler önüne serdi.
Güvenlik açığı, yapay zekA etiği tartışmalarını yeniden gündeme getirdi
DeepSeek'in güvenlik protokollerini aşabilmesi, yapay zekâ teknolojilerinin denetlenmesi ve etik kurallar çerçevesinde geliştirilmesi gerektiğini bir kez daha gündeme getirdi. Araştırmacılar, modelin kötüye kullanım potansiyelinin yüksek olduğunu belirterek, yapay zekâ güvenliği konusunda daha sıkı önlemler alınması gerektiğini vurguladı.
Kaynak: webtekno, euronews