AI Gdpr Attacchi hacker e Malware: le ultime news in tempo reale e gli approfondimenti Applicazioni fornitori infrastrutture intelligenza arficiale Intelligenza Artificiale resilienza AI generative cyber attack cyber resilience security by design

Data poisoning: cos’è e come proteggersi dall’avvelenamento dei modelli di AI generativa

Data poisoning: cos’è e come proteggersi dall’avvelenamento dei modelli di AI generativa

Secondo uno studio, condotto da Anthropic, in collaborazione con il UK AI Security Institute e l'Alan Turing Institute, meno dello 0,0002% del dataset complessivo di addestramento pre-training è sufficiente per il data poisoning: bastano 250 documenti malevoli per avvelenare un modello di AI generativa. Ecco le misure di mitigazione
L'articolo Data poisoning: cos’è e come proteggersi dall’avvelenamento dei modelli di AI generativa proviene da Cyber Security 360.

📖 Leggi l'articolo completo originale:

https://www.cybersecurity360.it/nuove-minacce/data-poisoning-cose-e-come-proteggersi-dallavvelenamento-dei-modelli-di-ai-generativa/ →