Il report di Anthropic descrive il primo attacco quasi completamente automatizzato da un modello di AI attribuito a un gruppo cinese, ma ricercatori ed esperti invitano alla cautela, parlando di risultati limitati, tecniche tutt’altro che rivoluzionarie e di una crescente psicosi collettiva che rischia di distorcere il dibattito sulla reale portata delle minacce.
Anthropic ha pubblicato un report che potrebbe segnare un punto di svolta nella storia della cybersecurity.
L’azienda fondata da Dario Amodei ha ricostruito una campagna di spionaggio informatico gestita per l’80-90% da un modello di AI, Claude Code, utilizzato da un gruppo di hacker affiliati al governo cinese per colpire circa 30 organizzazioni nel mondo.
I bersagli andavano da istituzioni finanziarie a industrie chimiche, fino a enti governativi e grandi aziende tecnologiche. In alcuni casi gli attaccanti sono riusciti a ottenere accessi non autorizzati.
Secondo Anthropic l’AI avrebbe gestito l’80-90% delle operazioni
Il report descrive un’operazione che ha visto l’AI non come un semplice assistente, ma come esecutore quasi completo dell’intera catena d’attacco: ricognizione dei sistemi, produzione di exploit, raccolta di credenziali, creazione di backdoor ed esfiltrazione dei dati. Il tutto orchestrato con un livello di autonomia senza precedenti, riducendo il ruolo umano a poche decisioni critiche. Una minaccia che gli esperti si aspettavano tra 12 e 18 mesi, ma che è già realtà.

Google aveva già segnalato dinamiche simili in attacchi russi contro obiettivi ucraini, mentre Chris Krebs, ex direttore dell’agenzia cyber statunitense, parla di una fase preliminare di operazioni ancora più sofisticate.
Attacchi informatici automatizzati? I ricercatori evidenziano più di un dubbio
Ma il report di Anthropic non ha convinto tutti. Diversi ricercatori esterni invitano alla cautela e parlano di una narrazione potenzialmente sovrastimata. L’indagine descrive un attacco attribuito al gruppo GTG-1002, con l’AI impiegata come orchestratore per suddividere le attività complesse in sotto-task. Tuttavia, secondo alcuni analisti, la portata reale dell’operazione non sarebbe così rivoluzionaria.
Il successo dell’attacco sarebbe stato limitato e le tecniche usate includerebbero strumenti open source ben noti e facilmente rilevabili. Inoltre, le capacità del modello mostrerebbero limiti significativi: Claude avrebbe generato credenziali inesistenti e classificato come sensibili informazioni pubbliche, segno che l’affidabilità dell’automazione completa è ancora distante.
Le critiche sottolineano anche un apparente paradosso: mentre i ricercatori “etici” faticano a ottenere risultati simili con modelli controllati, l’idea che criminali informatici possano farlo con facilità appare poco plausibile.
Beaumont e la “psicosi AI”
Nel dibattito si inserisce anche Kevin Beaumont, uno degli esperti più autorevoli della comunità internazionale, che denuncia un crescente livello di disinformazione attorno all’AI. Beaumont sostiene che molte narrative diffuse in queste settimane – come il presunto “90% di ransomware generato da GenAI” – siano prive di basi concrete. Secondo lui la Cina avrebbe intuito la vulnerabilità comunicativa dell’Occidente nei confronti delle minacce AI, sfruttando il panico per distogliere l’attenzione da problemi strutturali. Una dinamica che, se confermata, rende ancora più urgente riportare la discussione sulle evidenze reali.
Beaumont punta il dito contro organizzazioni molto note che stanno diffondendo numeri e scenari non supportati da evidenze, con CISO che dichiarano percentuali di attacchi AI “che non riflettono alcuna realtà operativa”. Il rischio, avverte, è quello di distrarre governi e imprese dalle vere priorità della sicurezza, proprio mentre minacce più concrete avanzano.
Il report di Anthropic, pur con le sue zone d’ombra e le critiche degli analisti, conferma comunque che la corsa tra attacco e difesa sta accelerando. Come ha ricordato Jen Easterly, ex direttrice CISA, l’era degli attacchi automatizzati è iniziata. Che la loro efficacia venga sopravvalutata o meno, la sfida ora è costruire difese altrettanto intelligenti, resilienti e veloci.
Vai al sito di Cybersecurity Italia.
L'articolo L’era degli attacchi informatici automatizzati è iniziata o è solo una “psicosi AI”? sembra essere il primo su CyberSecurity Italia.
📖 Leggi l'articolo completo originale:
https://www.cybersecitalia.it/lera-degli-attacchi-informatici-automatizzati-e-iniziata-o-e-solo-una-psicosi-ai/54727/ →