Claude Mythos Preview è già in grado di condurre attività autonome di ricerca sulla sicurezza, inclusa la scansione e lo sfruttamento di vulnerabilità zero-day, ovvero falle sconosciute anche agli sviluppatori.
Anthropic ha sviluppato un nuovo modello AI ritenuto troppo potente per essere rilasciato pubblicamente. La notizia, riportata dal New York Times, segna un passaggio critico nel rapporto tra innovazione e sicurezza informatica.
Claude Mythos Preview e il nodo sicurezza: un modello troppo potente per il rilascio
Il modello, denominato Claude Mythos Preview, non sarà distribuito al pubblico. Anthropic ha deciso di limitarne l’accesso per il rischio di utilizzi impropri, soprattutto in ambito cyber. Secondo l’azienda, le sue capacità superano la soglia di sicurezza attualmente gestibile in un contesto aperto, in particolare per quanto riguarda l’individuazione e lo sfruttamento di vulnerabilità software.
Il sistema sarà disponibile solo a un consorzio di oltre 40 organizzazioni, tra cui Apple, Amazon e Microsoft, nell’ambito del Project Glasswing. L’obiettivo è utilizzare il modello per identificare e correggere vulnerabilità nei software critici. L’iniziativa coinvolge anche attori come Google, Cisco, Broadcom e la Linux Foundation, con Anthropic che ha stanziato fino a 100 milioni di dollari in crediti per l’utilizzo del modello.
Vulnerabilità zero-day e ricerca autonoma: il salto dell’AI nella cybersecurity
Secondo quanto riportato dal New York Times, Claude Mythos Preview è già in grado di condurre attività autonome di ricerca sulla sicurezza, inclusa la scansione e lo sfruttamento di vulnerabilità zero-day, ovvero falle sconosciute anche agli sviluppatori. Il modello avrebbe identificato migliaia di bug in software diffusi, inclusi sistemi operativi e browser.
Tra gli esempi citati, emerge una vulnerabilità di 27 anni nel sistema operativo open source OpenBSD, progettato per essere altamente sicuro e utilizzato in router e firewall. Un altro caso riguarda un software video ampiamente testato milioni di volte senza che fossero individuati problemi. Elementi che evidenziano un salto qualitativo nella capacità di analisi rispetto agli strumenti tradizionali.
AI offensiva e rischio sistemico: quando la difesa diventa attacco
Un sistema progettato per rafforzare la sicurezza può essere utilizzato per attacchi avanzati. Le stesse capacità che permettono di identificare vulnerabilità possono essere sfruttate per comprometterle, anche da parte di utenti non esperti tramite semplici prompt.
La cybersecurity si trova di fronte a un cambio di paradigma. Attività che prima richiedevano mesi di lavoro da parte di ricercatori esperti possono ora essere svolte in pochi minuti da un sistema AI. Questo abbassa drasticamente le barriere tecniche, aumentando il rischio che un numero maggiore di attori possa condurre attacchi sofisticati.
Difesa collaborativa e consapevolezza: la strategia Anthropic
Anthropic sostiene di voler anticipare questo scenario, offrendo ai “buoni attori” un vantaggio per rafforzare infrastrutture open source e private. L’obiettivo è duplice: aumentare la consapevolezza sui rischi emergenti e preparare il sistema prima che queste capacità diventino diffuse. Tuttavia, la stessa azienda riconosce che si tratta solo dell’inizio di una trasformazione più ampia.
Secondo diversi esperti citati dal New York Times, modelli come Claude Mythos Preview rappresentano un punto di svolta. La possibilità che sistemi AI autonomi possano analizzare continuamente infrastrutture alla ricerca di vulnerabilità apre la strada a una nuova fase di competizione tecnologica tra chi attacca e chi difende.
Vai al sito di Cybersecurity Italia.
L'articolo Claude Mythos Preview troppo pericoloso per il rilascio, Anthropic lo affida alle big tech per scoprire vulnerabilità prima degli attaccanti sembra essere il primo su CyberSecurity Italia.