Manipolazione dei prompt: la bassa soglia di accesso apre il vaso di Pandora
Il prompt hacking o prompt injection ricorda i famigerati attacchi SQL injection dei primi anni 2000. Abbiamo già visto tattiche simili in passato. Ec...
Leggi tutto →85 articoli in questa categoria
Il prompt hacking o prompt injection ricorda i famigerati attacchi SQL injection dei primi anni 2000. Abbiamo già visto tattiche simili in passato. Ec...
Leggi tutto →
Gli LLM hanno l'effetto di accelerare il ciclo di vita del ransomware, ma senza trasformarlo in maniera radicale. Ecco i tre cambiamenti strutturali c...
Leggi tutto →
I voucher sono un valido strumento di marketing che necessita di attenta analisi dei rapporti civilistici e normativi con il fornitore delle gift card...
Leggi tutto →
Uno studio non dimostra l’esecuzione sistematica di una kill chain completa per sferrare attacchi. Ma il focus rimane sulla capacità dell'AI di influe...
Leggi tutto →
Si prevede che l'anno prossimo accelererà lo sviluppo di agenti AI sempre più autonomi e del calcolo quantistico, mentre le normative entrano nel vivo...
Leggi tutto →
Software capaci di rispondere a domande, riassumere pagine, eseguire comandi e agire autonomamente su siti web: gli AI browser aprono un campo inesplo...
Leggi tutto →
L'estensione Urban VPN Proxy per Edge e Chrome intercetta e cattura le conversazioni degli utenti con otto chatbot AI, tra cui ChatGPT, Gemini e Copil...
Leggi tutto →
Ignoti cybercriminali hanno generato guide con ChatGPT e Grok che sembrano innocue, ma contengono comandi per l'installazione di Atomic macOS Stealer....
Leggi tutto →
WormGPT e KawaiiGPT sono due modelli AI molto popolari che consentono ai cybercriminali di scrivere email di phshing e codice di malware. The post Wor...
Leggi tutto →
Strumenti come ChatGPT, Claude, Gemini e NoteBookLM stanno dimostrando un grande potenziale nel supportare le organizzazioni nella gestione di normati...
Leggi tutto →
Portare i modelli di machine learning dalla fase sperimentale alla produzione presenta sfide complesse: disallineamento dei dati, gestione degli ambie...
Leggi tutto →
Il debutto del sistema di whistleblowing per l’AI Act prevede un canale sicuro e crittografato gestito dall’European AI Office per la segnalazione del...
Leggi tutto →
Il CERT-AgID ha effettuato un test con Gemini per verificare i rischi associati all'uso di un agente AI che può accedere a documenti e sistema operati...
Leggi tutto →
Una vulnerabilità di Google Antigravity può essere sfruttata per eseguire istruzioni nascoste in una pagina web (attacco di prompt injection indiretto...
Leggi tutto →
Deepfake e chatbot ingannevoli sono reati in grado di provocare l'erosione della fiducia nel campo dei servizi finanziari. Ecco perché, secondo il Cri...
Leggi tutto →
HashJack è un nuovo attacco di prompt injection che nasconde istruzioni dannose dopo il simbolo # in URL legittimi ingannando i browser AI. The post A...
Leggi tutto →
OpenAI ha rimosso Mixpanel dopo una violazione che ha esposto informazioni sugli utenti API, sottolineando che ChatGPT non è coinvolto. The post Data ...
Leggi tutto →
Nel cuore dei Security Operations Center, la pressione degli attacchi informatici è diventata travolgente, ma i LLM, pur non sostituendo il processo d...
Leggi tutto →
L’AI Act non pone nessun tipo di limite dimensionale o settoriale. Ma il percorso di compliance sarà proporzionato all'impatto dell’AI nel business az...
Leggi tutto →
Le PMI sono sempre più esposte agli attacchi informatici con l'AI, dalle truffe vocali ai ransomware. Dati e casi reali mostrano rischi economici enor...
Leggi tutto →