Il Tesoro convoca i vertici della finanza americana: timori per le capacità offensive dell’AI di Anthropic, in grado di individuare e sfruttare vulnerabilità su larga scala.
Negli Stati Uniti cresce l’attenzione istituzionale sui rischi cyber legati all’evoluzione dell’intelligenza artificiale. Il segretario al Tesoro Scott Bessent ha convocato a Washington i principali dirigenti delle banche americane per discutere le implicazioni di sicurezza del nuovo modello AI Claude Mythos sviluppato da Anthropic, ritenuto in grado di individuare e sfruttare vulnerabilità software con un livello di efficacia superiore a quello della maggior parte degli esperti umani.
Al tavolo erano presenti figure centrali del sistema finanziario, tra cui il presidente della Federal Reserve Jerome Powell e i CEO di istituti come Goldman Sachs, Bank of America e Citigroup. Un confronto che segnala chiaramente come il rischio informatico legato all’AI non sia più percepito come un tema tecnico, ma come una potenziale minaccia sistemica per la stabilità economica.
L’AI capace di scoprire vulnerabilità su larga scala
Secondo quanto dichiarato da Anthropic, Claude Mythos sarebbe in grado di identificare e sfruttare falle nei software su scala massiva, arrivando a individuare migliaia di vulnerabilità, alcune delle quali risalenti a quasi trent’anni fa. Una capacità che, se da un lato può rappresentare un vantaggio per attività di sicurezza difensiva e vulnerability assessment, dall’altro apre scenari critici in caso di utilizzo da parte di attori malevoli.
Il rischio è quello di un’accelerazione senza precedenti nelle attività di exploitation, con la possibilità di compromettere sistemi informatici, accedere a dati sensibili o colpire infrastrutture critiche con maggiore rapidità ed efficacia rispetto al passato.
Il nodo dell’accesso e il cambio di strategia di Anthropic
Consapevole delle implicazioni, Anthropic ha deciso di limitare l’accesso a Claude Mythos a un numero ristretto di partner tecnologici, tra cui Amazon, Apple e Microsoft. Una scelta che segna un cambio di passo rispetto alle precedenti politiche di maggiore apertura e che riflette un approccio più prudente nella gestione di tecnologie ad alto potenziale dual use.
Il tema dell’access control diventa centrale: la diffusione incontrollata di strumenti con capacità avanzate di analisi e attacco potrebbe abbassare significativamente la barriera d’ingresso per cybercriminali e gruppi statuali, ampliando la superficie di rischio globale.
Banche e infrastrutture finanziarie nel mirino
Il coinvolgimento diretto dei vertici bancari evidenzia la particolare esposizione del settore finanziario. Le istituzioni bancarie rappresentano infatti uno degli obiettivi privilegiati per attacchi informatici, sia per il valore dei dati gestiti sia per il ruolo critico nel funzionamento dell’economia.
In questo contesto, l’integrazione di AI avanzata nei processi offensivi potrebbe rendere più sofisticate le campagne di attacco, aumentando la probabilità di successo e riducendo i tempi di individuazione delle vulnerabilità sfruttabili.
Verso una nuova governance della sicurezza AI
Il confronto tra governo e industria segnala l’emergere di una nuova fase nella governance della cybersicurezza, in cui l’intelligenza artificiale assume un ruolo centrale sia come strumento di difesa sia come potenziale vettore di rischio.
La sfida, per le istituzioni e per il settore privato, sarà quella di bilanciare innovazione e sicurezza, definendo modelli di controllo, accesso e responsabilità in grado di prevenire abusi senza rallentare lo sviluppo tecnologico. In un contesto di evoluzione così rapida, il tema non è più se l’AI cambierà il panorama della sicurezza informatica, ma con quale velocità e con quali conseguenze sistemiche.
Seguici anche sul nostro canale WhatsAppVai al sito di Cybersecurity Italia.
L'articolo Scott Bessent convoca i vertici della finanza per discutere di Claude Mythos di Anthropic, il modello AI che preoccupa il Governo Usa sembra essere il primo su CyberSecurity Italia.