- Katılım
- 28 Şubat 2025
- Konular
- 213
- Mesajlar
- 201
- Tepkime puanı
- 198
Birleşik Krallık Yapay Zeka Güvenlik Enstitüsü, Alan Turing Enstitüsü ve Anthropic araştırmacılarının ortak çalışması, büyük dil modellerinin (LLM’ler) güvenliğine dair çarpıcı bir uyarı yayınladı: yaklaşık 250 adet kasıtlı olarak bozulmuş belge, GPT- benzeri modellerde geri döndürülemez hatalara yol açabilecek “zehirlenme” (poisoning) saldırılarına olanak sağlıyor.
Detayları okumak için tıklayınız...
Peki siz bu konuda ne düşünüyorsunuz?
Detayları okumak için tıklayınız...
Peki siz bu konuda ne düşünüyorsunuz?
Moderatör tarafında düzenlendi: