⚠️ 250 Doküman Yeterli: ChatGPT Kolayca Sabote Edilebiliyor

SNT 

Sinetech Yazarı ve Paylaşımcısı
Paylaşımcı
Katılım
28 Şubat 2025
Konular
213
Mesajlar
201
Tepkime puanı
198
Birleşik Krallık Yapay Zeka Güvenlik Enstitüsü, Alan Turing Enstitüsü ve Anthropic araştırmacılarının ortak çalışması, büyük dil modellerinin (LLM’ler) güvenliğine dair çarpıcı bir uyarı yayınladı: yaklaşık 250 adet kasıtlı olarak bozulmuş belge, GPT- benzeri modellerde geri döndürülemez hatalara yol açabilecek “zehirlenme” (poisoning) saldırılarına olanak sağlıyor.

Detayları okumak için tıklayınız...

Peki siz bu konuda ne düşünüyorsunuz?
 
Moderatör tarafında düzenlendi:

Geri
Üst