cybercrime Eventi Italia Trends

CyberSEC2026, Sessione 2 “AI e Cybercrime Investigation: Strumenti, tecnologie e cooperazione operativa”

CyberSEC2026, Sessione 2 “AI e Cybercrime Investigation: Strumenti, tecnologie e cooperazione operativa”

La sintesi della Sessione 2 di CyberSEC2026, “L’AI e gli strumenti di cybercrime investigation, la centralità del principio ‘human-in-the-loop’”.

Sintesi della Sessione Tematica 2 dal titolo “AI e Cybercrime Investigation: Strumenti, tecnologie e cooperazione operativa” durante la quinta edizione della Conferenza Internazionale CyberSEC – Cybercrime e Cyberwar: Norme, Geopolitica e Cybersecurity per una Difesa Comune, promossa e organizzata da Cybersecurity Italia in collaborazione con la Polizia di Stato, tenutasi a Roma presso la Scuola Superiore di Polizia.

Nella Sessione 2 presieduta e moderata da Claudia Lofino, III Divisione – Servizio Polizia Postale e per la Sicurezza Cibernetica, si è parlato di diversi temi chiave, tra cui: tecniche investigative avanzate per il contrasto dei crimini informatici, digital forensics, AI come strumento investigativo, cooperazione internazionale e giudiziaria, limiti normativi e giurisdizionali, pattern criminali, automazione delle indagini e analisi predittiva.

Boggio (Kyndryl): “Si va verso Security operations center cognitivi per sviluppare strategie di AI difensiva

Nel suo intervento, Andrea Boggio, Director, Security Customer Technical Advisor, Kyndryl, ha affemato: “La crescita del cybercrime e l’evoluzione degli attacchi informatici stanno cambiando profondamente il modo in cui le organizzazioni gestiscono la sicurezza. In particolare, l’utilizzo sempre più diffuso dell’intelligenza artificiale anche da parte degli attaccanti rende necessario ripensare il ruolo dei Security Operations Center (SOC) e introdurre nuovi strumenti di AI difensiva.

Tradizionalmente, i SOC si sono concentrati soprattutto sulla rilevazione degli incidenti. Il modello operativo, formalizzato già negli anni Novanta nei framework del NIST, si basa su un processo di incident handling che prevede fasi di detection, analisi e risposta. Per lungo tempo l’attività è stata prevalentemente reattiva: i sistemi individuavano un evento sospetto, gli analisti aprivano un ticket e intervenivano per contenere o mitigare l’attacco”.

Un cambio di approccio

Oggi questo approccio non è più sufficiente, ha affermato Boggio, perché “l’aumento esponenziale delle minacce, spesso automatizzate e alimentate da tecnologie di AI, richiede capacità di risposta molto più rapide. Da qui nasce l’evoluzione verso SOC cognitivi, ovvero centri operativi che integrano strumenti avanzati di intelligenza artificiale per supportare o automatizzare parte delle attività di analisi e risposta agli incidenti.

L’introduzione di tecnologie come i Large Language Model (LLM) consente di aggiungere un vero e proprio livello cognitivo alle security operations. Attraverso agenti intelligenti e sistemi di automazione avanzata, è possibile velocizzare il triage degli incidenti, supportare gli analisti nelle indagini e intervenire più rapidamente nel contenimento delle minacce. Questo permette anche di liberare risorse umane, che possono concentrarsi su attività più strategiche e di maggiore valore”.

Elemento chiave del modello

Un elemento chiave in questo modello, ha sottolineato Boggio, “è la gestione della severity degli incidenti. Gli eventi meno critici possono essere gestiti in modo completamente automatizzato, con tempi di risposta estremamente rapidi, mentre per gli incidenti più gravi rimane fondamentale il principio dello human in the loop, con il coinvolgimento diretto degli analisti nelle decisioni più delicate.
In questo scenario emerge anche un altro tema centrale: il rapporto tra AI for security e security for AI. Se da un lato l’intelligenza artificiale rappresenta uno strumento sempre più potente per difendere le infrastrutture digitali, dall’altro richiede anche nuove attenzioni in termini di sicurezza, governance e controllo.

Un cybercrime sempre più automatizzato e scalabile

La conclusione è chiara: di fronte a un cybercrime sempre più automatizzato e scalabile, non è più possibile affidarsi esclusivamente a strumenti tradizionali. Solo attraverso l’adozione sistematica di AI difensiva e l’evoluzione verso SOC cognitivi le organizzazioni potranno affrontare in modo efficace le minacce di un ecosistema digitale sempre più complesso”.

Ferretti (Protiviti): “Investire in qualità dei dati, capacità di detection e interazione tra AI e competenze umane

Per essere davvero efficaci sia nella fase di detection sia in quella di risposta agli incidenti, è fondamentale disporre delle informazioni su cui queste attività possono basarsi. Per sfruttare pienamente i benefici che le soluzioni di intelligenza artificiale possono offrire, è quindi necessaria una fase preliminare di progettazione dell’infrastruttura di monitoraggio”.

Gli strumenti

Questo significa dotarsi di strumenti di telemetria e di raccolta dei dati che permettano, nel momento in cui si verifica un incidente o una situazione sospetta, di mettere a disposizione degli strumenti di analisi tutte le informazioni necessarie per comprendere cosa sta accadendo. Senza queste precondizioni, anche le tecnologie di intelligenza artificiale più avanzate rischiano di non poter esprimere pienamente il loro potenziale”, ha dichiarato Enrico Ferretti, Managing Director di Protiviti, nel suo intervento in sessione.

Le fasi di detection e risposta

In questo ambito, ha precisato Ferretti: “L’intelligenza artificiale può già offrire un contributo importante. Oggi il numero di oggetti e sistemi da monitorare cresce continuamente ed è estremamente eterogeneo: parliamo di infrastrutture IT tradizionali, ma anche di ambienti IoT e OT, ognuno con caratteristiche e criticità specifiche. Nelle fasi di detection e risposta, credo che il contributo dell’intelligenza artificiale possa essere ricondotto a tre ambiti principali. Il primo riguarda la qualità della detection. La quantità di informazioni disponibili cresce costantemente e proviene da fonti sempre più eterogenee.

Le tempistiche di risposta

Il secondo ambito riguarda le tempistiche di risposta. Oggi i tempi entro cui dobbiamo individuare e gestire un incidente si sono drasticamente ridotti: parliamo di minuti, e in alcuni casi addirittura di secondi. Le tecnologie di intelligenza artificiale consentono non solo di accelerare queste attività, ma in alcuni casi anche di anticipare la comparsa di una minaccia.

Il terzo elemento, altrettanto importante, riguarda la relazione tra tecnologia e analista umano. Come è stato sottolineato da molti, l’analista resta una componente imprescindibile del processo di sicurezza.
Gli ambiti su cui dovremmo concentrare attenzione e investimenti sono: la qualità e la disponibilità dei dati, il miglioramento delle capacità di detection, la riduzione dei tempi di risposta e il potenziamento dell’interazione tra intelligenza artificiale e competenze umane. Sono questi i fattori che possono davvero fare la differenza nel rafforzare le nostre capacità di difesa
”.

Gentili (Telsy): “L’AI centrale, ma in molte applicazioni di sicurezza la validazione umana resta indispensabile

Quando utilizziamo strumenti di AI per applicazioni generiche, spesso tendiamo a prendere per buone le risposte che ci vengono fornite. Ma se spostiamo lo stesso ragionamento in un contesto professionale – e in particolare in ambito cyber security – la situazione cambia. La domanda che pongo è semplice: se chiedessimo a un sistema di intelligenza artificiale di produrre un report su una specifica minaccia informatica, prenderemmo quel documento così com’è e lo porteremmo direttamente al nostro amministratore delegato? Personalmente credo di no. In molte applicazioni di sicurezza la validazione umana resta indispensabile“.

Le informazioni prodotte da sistemi di AI possono essere incomplete, distorte o basate su dati non affidabili. Se queste tecnologie non vengono governate correttamente, il rischio è quello di prendere decisioni su basi non solide”, ha sostento Emanuele Gentili, Threat Intelligence & Response Director di Telsy, nel suo intervento.

Un primo ambito in cui l’AI si dimostra molto utile è la social media intelligence, ad esempio per attività di fact checking. È possibile prendere una notizia o un’informazione emersa online e verificare rapidamente se esistono altre fonti pubbliche o situazionali che la confermano. Naturalmente, anche in questo caso, il risultato deve poi essere sottoposto alla validazione di un analista umano. Un secondo ambito riguarda l’ingegneria inversa dei malware, un’attività molto tecnica che richiede competenze altamente specializzate.

L’attribuzione degli attacchi

Un ulteriore esempio riguarda l’attribuzione degli attacchi. I malware, almeno fino ad oggi, sono scritti da esseri umani e tendono a riutilizzare determinate routine o strutture di codice. Se addestrata correttamente, l’intelligenza artificiale può essere molto utile nell’individuare questi pattern e nel mettere in evidenza elementi che possono aiutare a identificare gruppi o famiglie di malware.

Accanto a questi utilizzi difensivi – ha sottolineato Gentili – dobbiamo osservare anche ciò che accade sul fronte opposto. L’intelligenza artificiale viene ormai utilizzata anche in ambito offensivo. La tecnologia può supportarci, accelerare le analisi e ampliare le nostre capacità operative, ma deve essere governata con attenzione e integrata in processi in cui competenze umane, capacità di analisi critica e responsabilità decisionale restano elementi centrali”.

Portaluri (Magnet Forensics): “Sfida è trovare equilibrio tra sicurezza, innovazione tecnologica e tutela libertà individuali

Quando parliamo di AI applicata alla sicurezza – e in un contesto come questo parliamo inevitabilmente anche di attività investigative – entra infatti in gioco un aspetto fondamentale: il valore probatorio delle informazioni. Quando un’indagine arriva in tribunale non conta soltanto la prova che abbiamo raccolto, ma anche il modo in cui quella prova è stata ottenuta. Questo principio è centrale nel nostro sistema giuridico. Per questo motivo l’utilizzo di tecnologie avanzate, come l’intelligenza artificiale, deve sempre essere accompagnato da garanzie di trasparenza, tracciabilità e correttezza procedurale“.

La collaborazione

Un altro punto interessante emerso negli interventi di questa mattina riguarda l’importanza di una stretta collaborazione tra università, centri di ricerca e forze dell’ordine. Sia il prefetto Frattasi sia il dottor Gabrielli hanno sottolineato quanto sia strategico questo rapporto.

L’innovazione tecnologica procede a una velocità tale che nessuna istituzione può affrontare queste sfide da sola. In molti Paesi questo modello è già molto sviluppato. Negli Stati Uniti, ad esempio, ma anche in Israele, esiste un ecosistema in cui governi, università, startup e industria collaborano in modo estremamente integrato. In questi contesti il ruolo dello Stato è spesso molto presente e proattivo, anche all’interno degli ecosistemi innovativi, proprio per garantire la proprietà del dato, la residenza dei dati e il controllo delle tecnologie strategiche”, ha dichiarato Luigi Portaluri, Director South Europe di Magnet Forensics.

Asimmetria nei tempi

Accanto a questo, però, Portaluri vede anche una certa asimmetria nei tempi: “Da un lato c’è il settore privato, che innova molto rapidamente. Dall’altro c’è il settore pubblico, e in particolare la dimensione normativa, che inevitabilmente richiede tempi più lunghi. Nel nostro caso, ad esempio, sviluppiamo software che supportano le attività investigative e che spesso producono documenti e analisi utilizzati dalle forze dell’ordine per valutare se procedere o meno con un’indagine. Si tratta di documenti molto rilevanti, perché aiutano chi investiga a individuare correlazioni, ricostruire scenari e arrivare eventualmente a un procedimento giudiziario.

Parallelamente, però, il quadro normativo europeo sta evolvendo rapidamente. Con l’entrata in vigore dell’AI Act, adottato nel 2024, tutti i governi stanno progressivamente recependo una normativa molto articolata e, in alcuni ambiti, particolarmente stringente. Questo vale soprattutto per le applicazioni dell’intelligenza artificiale utilizzate dalle forze dell’ordine. In alcuni casi queste norme stanno rallentando anche l’adozione di nuovi strumenti investigativi. Pensiamo, ad esempio, ai dibattiti in corso su alcune tecnologie utilizzate per il contrasto a reati gravi, come la pedopornografia online, dove il bilanciamento tra strumenti investigativi e tutela dei diritti è particolarmente delicato.

Proprio per questo motivo – ha proseguito Portaluri –credo che la collaborazione non debba riguardare soltanto forze dell’ordine, università e imprese, ma debba coinvolgere in modo diretto anche il legislatore. La questione centrale, infatti, è quella del bilanciamento tra sicurezza e diritti fondamentali. Come ricordava questa mattina il dottor Pisani, dobbiamo certamente garantire la sicurezza dei cittadini, ma dobbiamo anche chiederci a quale prezzo. La storia recente lo dimostra chiaramente. Dopo l’11 settembre, per esempio, molte misure introdotte per rafforzare la sicurezza hanno comportato anche una riduzione degli spazi di libertà e dei diritti alla privacy. La sfida, quindi, è trovare un equilibrio. Un equilibrio tra sicurezza, innovazione tecnologica e tutela delle libertà individuali. E questo equilibrio può essere raggiunto solo attraverso un dialogo continuo tra settore pubblico, settore privato, comunità scientifica e decisori politici.

Tito (IBM): “L’introduzione dell’intelligenza artificiale crea anche nuove superfici di attacco

La capacità di utilizzare soluzioni basate su agenti di intelligenza artificiale consente oggi di automatizzare molte attività tipicamente time-consuming, come ad esempio quelle legate all’help desk aziendale o alla gestione delle richieste dei clienti. Questo approccio consente, da un lato, di ridurre drasticamente i tempi di risposta, rendendo le organizzazioni più rapide ed efficaci anche nel rispettare le tempistiche richieste dalle normative di settore”.

Dall’altro lato, permette di affrontare un problema sempre più evidente: la carenza di professionisti con competenze specialistiche in ambito cyber e IT. In questo senso, le soluzioni basate su agenti AI possono rappresentare una leva importante per colmare almeno in parte questa mancanza di risorse. Le attività che oggi vengono svolte manualmente potranno essere sempre più automatizzate, consentendo alle persone di concentrarsi su compiti a maggiore valore aggiunto. Il ruolo degli operatori non scompare, ma evolve: le persone saranno sempre più chiamate a interpretare, validare e indirizzare gli output generati dai sistemi di intelligenza artificiale, prendendo decisioni strategiche e gestendo le situazioni più complesse”, ha detto Cristiano Tito, Cybersecurity Services Portfolio Lead di IBM.

Allo stesso tempo, Tito ha chiarito che “non dobbiamo dimenticare che l’introduzione dell’intelligenza artificiale crea anche nuove superfici di attacco. Se da un lato l’AI rappresenta un grande vantaggio operativo, dall’altro introduce nuove vulnerabilità che devono essere gestite con attenzione. Per questo motivo la governance delle soluzioni di AI diventa un elemento fondamentale.

L’intelligenza artificiale, infatti, può essere a sua volta manipolata o ingannata. Pensiamo, ad esempio, agli attacchi di prompt injection o di data poisoning, che possono compromettere i dati utilizzati dai modelli o alterare il comportamento delle applicazioni basate su AI. Anche una gestione non corretta delle credenziali di accesso ai sistemi di intelligenza artificiale può generare rischi significativi.

L’AI sta abbassando la barriera di ingresso per il cybercrime

A questo proposito è interessante citare alcuni dati emersi dal nostro X-Force Threat Intelligence Report, pubblicato pochi giorni fa. Il report evidenzia un aumento molto significativo degli attacchi contro applicazioni esposte pubblicamente, spesso dovuti a due fattori principali: da un lato la mancanza di adeguati meccanismi di autenticazione, dall’altro proprio l’utilizzo dell’intelligenza artificiale da parte degli attaccanti. L’AI, infatti, sta abbassando la barriera di ingresso per il cybercrime. Oggi anche soggetti che non possiedono competenze tecniche avanzate possono sfruttare strumenti di intelligenza artificiale, playbook disponibili online e modelli già addestrati per lanciare attacchi che in passato richiedevano skill molto più elevate”.

Crescono i gruppi criminali

Inoltre – ha proseguito Tito – stiamo osservando una crescita significativa di gruppi criminali che non sono necessariamente legati a strutture statali, ma che vengono finanziati da attori interessati a specifiche operazioni. Secondo i dati del report, ad esempio, le attività legate al ransomware sono cresciute del 49% rispetto all’anno precedente. Questo scenario ci mostra chiaramente come l’intelligenza artificiale rappresenti allo stesso tempo una grande opportunità e una potenziale minaccia. L’elemento che può davvero fare la differenza nel trovare il giusto equilibrio è, ancora una volta, il fattore umano. È fondamentale sviluppare competenze e consapevolezza nell’utilizzo dell’intelligenza artificiale, ma anche introdurre meccanismi di controllo, governance e gestione degli accessi a queste tecnologie”.

Casadei (Gruppo Engineering): “L’AI non sostituisce l’analista, ne amplifica le capacità

Quando si parla di digital forensics, ha spiegato nel suo intervento Mirko Casadei, Senior Technical Manager Cyber Technologies del Gruppo Engineering, “spesso si pensa che il nostro lavoro consista semplicemente nel ricostruire ciò che è accaduto. In realtà non è così. Il nostro compito è più complesso: significa costruire una narrazione tecnica dei fatti che sia solida, verificabile e valida nel tempo“.

Perché questo avvenga, dobbiamo sempre rispettare alcuni principi fondamentali della disciplina: l’integrità del dato, la tracciabilità delle operazioni e la verificabilità delle informazioni che vengono raccolte e poi riportate nelle nostre analisi. Sono elementi essenziali perché permettono a un’indagine digitale di essere riproducibile e difendibile, anche a distanza di tempo”.

Un settore con l’AI al centro

Un settore profondamente influenzato dall’arrivo dell’intelligenza artificiale, ha commentato Casadei: “L’AI ci aiuta a riconoscere pattern e correlazioni all’interno dei dati che un analista umano difficilmente riuscirebbe a individuare in tempi brevi. E questo diventa particolarmente importante se consideriamo un altro fattore: oggi la quantità di dati digitali da analizzare è enormemente aumentata rispetto al passato. Le indagini sono diventate più complesse e più lunghe proprio perché il volume di informazioni è cresciuto in modo esponenziale. In questo contesto l’AI rappresenta una nuova tecnologia di supporto, ma è importante sottolinearlo: l’essere umano resta centrale”.

Nelle attività che svolgiamo quotidianamente – ha proseguito Casadei – sia nell’erogazione dei servizi di Security Operation Center, sia nelle attività di digital forensics, abbiamo individuato alcuni principi operativi che guidano l’utilizzo dell’intelligenza artificiale. Il primo è il principio del “trust but verify”: fidarsi, ma verificare. Oggi non possiamo credere ciecamente ai risultati prodotti dall’intelligenza artificiale. Questo perché i modelli di AI, e in particolare quelli di generative AI, funzionano su base probabilistica. In un contesto forense questo è un punto cruciale, perché il dato deve essere certo.

Il secondo principio è quello dello Human in the Loop, di cui si è parlato molto anche questa mattina. Per noi rappresenta una vera e propria garanzia metodologica. L’AI sa quali strumenti ha a disposizione – strumenti forensi, sistemi di analisi, database – e può interrogarli per ottenere informazioni. Ma il punto fondamentale è che il controllo resta sempre umano. Ogni risultato prodotto dai tool deve essere verificato e validato dall’analista.

Il terzo principio riguarda privacy e sicurezza

Il terzo principio riguarda privacy e sicurezza. Oggi esistono community e repository che mettono a disposizione milioni di modelli di intelligenza artificiale che possono essere scaricati e utilizzati liberamente. In ambiti come la digital forensics, dove spesso trattiamo informazioni estremamente delicate, questo è un tema centrale. Per questo motivo in molti casi adottiamo un approccio local-first. Significa utilizzare modelli magari più piccoli o più specializzati, ma eseguiti in ambienti isolati, all’interno dell’infrastruttura aziendale”.

Cecchi (SentinelOne): “L’AI permette di comprendere le minacce in modo predittivo, arrivando a bloccarle”

Paolo Cecchi, Area VP Mediterranean Region di SentinelOne, ha dichiarato: “Il problema che oggi devono affrontare le organizzazioni impegnate nelle attività di investigazione è che continuano a basarsi su un concetto di nodo. Questo approccio rende particolarmente complesso affrontare le nuove minacce. A ciò si aggiunge il fatto che l’intelligenza artificiale consente di modificare il vettore di attacco con estrema facilità: può trattarsi di un dominio IP, di un link malevolo oppure di un file esca, e tutto può cambiare nel giro di millisecondi. In questo contesto, raggiungere l’obiettivo diventa estremamente difficile”.

Ciò che non cambia, tuttavia, è la metodologia di attacco”, ha aggiunto Cecchi. “Finché questo approccio continua a funzionare e a garantire risultati, anche dal punto di vista economico, gli attaccanti non hanno motivo di modificarlo. Un esempio concreto è il ransomware, il cui comportamento rimane più o meno sempre lo stesso”.

Le investigazioni

Nelle investigazioni”, ha proseguito Cecchi, “è quindi necessario passare da un concetto di nodo statico a un approccio basato sull’identificazione comportamentale, che l’intelligenza artificiale consente di sfruttare in modo molto efficace. L’AI permette infatti di costruire pattern comportamentali che rendono possibile comprendere le minacce in modo predittivo e anticipato, arrivando persino a bloccarle”.

Poi ha aggiunto: “L’intelligenza artificiale ci supporta nelle investigazioni soprattutto quando dobbiamo analizzare quantità enormi di dati. Pensiamo che ogni organizzazione genera, ogni anno, circa il 35% in più di dati rispetto all’anno precedente. Il problema, però, è che se l’AI si limita a generare alert durante l’analisi dei dati, ci ritroviamo esattamente al punto di partenza. Quello che l’intelligenza artificiale dovrebbe fare, invece, è generare contesto: collegare quei punti che per l’essere umano sono difficili da unire o richiederebbero molto tempo per essere compresi”.

Cimino (DGS): “Stop all’overtrust, l’AI propone è l’essere umano che decide

“Vorrei sottolineare il problema dell’overtrust, ossia l’eccessiva fiducia nelle analisi generate dall’AI, come se i risultati prodotti fossero una verità assoluta. Quello che proponiamo, invece, è un nuovo modello: l’AI propone, l’essere umano decide”, ha spiegato Gianluca Cimino, Cybersecurity Chief Strategy Officer di DGS, si è soffermato sul ruolo dell’AI nelle investigazioni.

Fattore umano centrale

“L’uomo”, ha proseguito Cimino, “è l’unico elemento in grado di fornire il contesto alle analisi, interpretandole alla luce dello scenario di riferimento. Questo permette di superare alcuni dei limiti dell’intelligenza artificiale. Inserire la componente umana all’interno di questo workflow di analisi ci consente anche di misurare la qualità dei motori AI“.

In primo luogo attraverso un apprendimento rinforzato, che consente di migliorare progressivamente il processo di apprendimento dei motori AI in funzione del numero di interventi dell’essere umano nel workflow. Un secondo metodo consiste nel conteggio degli override umani sulle analisi prodotte dall’AI: questo parametro potrebbe permetterci di costruire un indice utile a migliorare la qualità complessiva delle analisi”.

“Per ridurre al minimo queste debolezze – ha precisato Cimino – è possibile utilizzare dati sintetici nei processi di addestramento dei motori AI. L’obiettivo è costruire dei gemelli digitali, creando una base informativa utile all’addestramento dei modelli e riducendo al minimo il rischio di data poisoning”.

Ghezzi (Crowdstrike): “Per chi si occupa di difesa, AI imprescindibile

“I dati parlano chiaro: secondo il nostro Global Threat Report il breakout time — cioè il tempo necessario a un attaccante per effettuare un movimento laterale all’interno di un’infrastruttura — è sceso a 29 minuti, con un record di appena 27 secondi”, ha affermato nel suo intervento Alessandro Ghezzi, Senior Regional Engineer di Crowdstrike.

“CrowdStrike è da sempre impegnata nella cyber threat intelligence ancora prima che nello sviluppo dei prodotti. Per questo – ha sottolineato Ghezzi – utilizziamo l’intelligenza artificiale fin dalla nostra fondazione. Oggi vengono utilizzati quotidianamente per analizzare l’enorme quantità di dati che alimenta il nostro report di intelligence, recentemente pubblicato anche nell’edizione 2026”.

Il valore della Difesa

Naturalmente, ha aggiunto Ghezzi, “tutto questo si riflette anche sulle componenti tecnologiche e organizzative dei SOC e dei CERT, che rappresentano i nostri principali interlocutori come vendor di cybersecurity. Il processo tipico di analisi e di triage iniziale all’interno di un CERT si trova oggi a dover gestire una crescita esponenziale della superficie di attacco. Mi riferisco in particolare alla frammentazione delle infrastrutture ICT: una parte è ancora on-premise, una parte è in cloud, una parte in ambienti virtualizzati IaaS e un’altra completamente in architetture SaaS, dove spesso non abbiamo più un controllo diretto delle infrastrutture”.

Per chi si occupa di Difesa, il controllo rimane quindi soprattutto sulle configurazioni di questi ambienti e sul comportamento degli utenti. Ma tracciare e analizzare il comportamento degli utenti su una massa di dati come quella attuale richiede inevitabilmente l’utilizzo dell’intelligenza artificiale: non se ne può prescindere”.

Seguici anche sul nostro canale WhatsApp

Vai al sito di Cybersecurity Italia.

L'articolo CyberSEC2026, Sessione 2 “AI e Cybercrime Investigation: Strumenti, tecnologie e cooperazione operativa” sembra essere il primo su CyberSecurity Italia.

📖 Leggi l'articolo completo originale:

https://www.cybersecitalia.it/cybersec2026-sessione-2-ai-e-cybercrime-investigation-strumenti-tecnologie-e-cooperazione-operativa/61165/ →