La possibilità di digitalizzare i processi investigativi riguarda oggi molti compartimenti e coinvolge diverse amministrazioni, spesso anche appartenenti a livelli differenti dello Stato. Si tratta di realtà che operano in contesti complessi e che sono sottoposte a controlli continui: controlli interni, controlli giudiziari e, lasciatemi dire, anche controlli di natura pubblica e mediatica.
“In questo scenario, l’evoluzione e l’adozione di procedure digitali dedicate non rappresentano soltanto un miglioramento tecnologico, ma incidono direttamente sulla qualità complessiva dell’intero sistema. Il punto di riferimento attuale è, di fatto, il livello di digitalizzazione dei processi e, più in generale, della gestione e della condivisione delle informazioni. Oggi non è più possibile immaginare che il controllo – anche quello amministrativo o contabile – si basi esclusivamente su procedure tradizionali. Accanto alle attività operative esistono ormai infrastrutture digitali che devono essere sicure, governate e pienamente consapevoli del proprio ruolo”, ha dichiarato Luigi Portaluri, Director South Europe di Magnet Forensics, intervistato alla quinta edizione della Conferenza Internazionale “CyberSEC – Cybercrime e Cyberwar: Norme, Geopolitica e Cybersecurity per una Difesa Comune”, promossa e organizzata da Cybersecurity Italia in collaborazione con la Polizia di Stato a Roma.

La catena della custodia del dato
“Questo approccio consente innanzitutto di preservare la qualità della catena di custodia del dato, che è un elemento fondamentale in ogni processo di acquisizione e gestione delle informazioni. Allo stesso tempo permette di garantire la tracciabilità delle operazioni e di mantenere un controllo costante sui flussi informativi.
La condivisione dei dati, infatti, non avviene più attraverso modalità informali o tramite il semplice trasferimento fisico di supporti – chiavette, hard disk o altri dispositivi – ma attraverso sistemi strutturati che consentono accessi controllati e differenziati.
In concreto, questo significa che investigatori, magistrati e altri soggetti coinvolti nel procedimento possono lavorare sullo stesso fascicolo digitale, accedendo alle informazioni in base al proprio ruolo e alle proprie competenze. Possono farlo anche contemporaneamente, ciascuno nell’ambito delle proprie responsabilità e del proprio intervento giurisdizionale”, ha spiegato Portaluri.
“Questo modello garantisce trasparenza. E per trasparenza non si intende l’assenza di regole, ma al contrario una chiara attribuzione di responsabilità lungo tutto il processo investigativo: ogni attività è tracciata, ogni intervento è identificabile, ogni passaggio è ricostruibile.
Un altro elemento fondamentale è quello della collaborazione strutturata. Più soggetti possono lavorare sullo stesso procedimento, anche nello stesso momento, coordinando le attività e condividendo le informazioni. Naturalmente questo avviene sempre nel rispetto delle norme e delle procedure previste, che in alcuni casi possono limitare determinate operazioni in base alla tipologia di attività investigativa.
Il vantaggio è evidente – ha precisato Portaluri – si evita di duplicare attività, si riducono sovrapposizioni operative e si mantiene sempre una regia chiara delle indagini, sotto la responsabilità del magistrato titolare del procedimento. Questo approccio risulta particolarmente efficace soprattutto nei procedimenti più complessi: pensiamo, ad esempio, alle indagini su fenomeni come il terrorismo internazionale, le organizzazioni criminali strutturate o altri contesti investigativi particolarmente articolati”.
La metastruttura dell’informazione e la standardizzazione dei processi
“In questo contesto diventa anche possibile rendere visibile e verificabile l’intero percorso della prova, ricostruendo con chiarezza tutte le fasi che ne hanno caratterizzato l’acquisizione e l’utilizzo, nonché gli eventuali impatti che essa produce nel procedimento. Cambia anche la qualità dell’informazione con cui lavoriamo. Non si tratta più soltanto di file, dati o dispositivi digitali: accanto agli elementi oggettivi entrano sempre più in gioco anche le interpretazioni e le correlazioni tra le informazioni.
Parliamo, ad esempio, della redazione degli atti, dei collegamenti tra diverse prove, della ricostruzione cronologica degli eventi e di tutto quell’insieme di elementi che contribuiscono a costruire il quadro complessivo dell’indagine. Questa dimensione – potremmo definirla una metastruttura dell’informazione – rende il ciclo investigativo più efficiente, più chiaro e più coerente. Consente infatti di documentare in modo puntuale ogni passaggio e di facilitare il lavoro di tutti i soggetti coinvolti nel procedimento.
Per certi versi cambia anche il ruolo stesso dell’attività investigativa e del lavoro giuridico – ha proseguito Portaluri – che non si limita più alla semplice raccolta dei dati, ma si estende alla loro organizzazione, interpretazione e gestione all’interno di sistemi sempre più strutturati. Questa evoluzione ha iniziato a prendere forma già da alcuni anni. Già a partire dal 2016 si sono avviati percorsi di standardizzazione volti a rafforzare la certezza e l’affidabilità del processo di costruzione della prova.
Diventa centrale una standardizzazione dei processi, non soltanto a livello nazionale ma anche in una prospettiva più ampia, che riguarda il modo in cui queste informazioni vengono condivise, comunicate e utilizzate tra i diversi soggetti coinvolti.
Quando parliamo di ambienti applicati alla digital forensics, dobbiamo quindi fare uno spostamento di prospettiva: non possiamo limitarci alla dimensione puramente tecnologica, ma dobbiamo concentrarci soprattutto sulla trasparenza del processo”.

Il cloud è ancora il fattore abilitante, ma sempre più centrale la qualità del dato
“La domanda non è semplicemente se investire o meno nel cloud, se sia una soluzione moderna o tecnologicamente avanzata. La vera domanda è se queste infrastrutture ci consentano davvero di utilizzare al meglio strumenti come l’intelligenza artificiale.
Il cloud rappresenta sicuramente un grande abilitatore, perché permette di gestire volumi enormi di dati e di garantire capacità di calcolo che difficilmente potrebbero essere sostenute con infrastrutture tradizionali. Tuttavia non dobbiamo dimenticare un elemento fondamentale: la qualità del dato. Senza dati di qualità, anche gli algoritmi più sofisticati non possono produrre risultati affidabili. Per questo è essenziale distinguere chiaramente tra dato, algoritmo e intelligenza artificiale. Sono tre livelli diversi che devono essere gestiti con attenzione, soprattutto in ambito investigativo e giudiziario, dove le attività devono essere comprensibili, verificabili e, se necessario, anche contestabili in sede di giudizio da parte della difesa”, ha affermato Portaluri.
“Un ulteriore aspetto riguarda le infrastrutture tecnologiche. Le infrastrutture tradizionali richiedono investimenti iniziali molto elevati, cicli di aggiornamento continui e una gestione complessa, soprattutto quando si parla di hardware altamente sofisticato. Le applicazioni basate sull’intelligenza artificiale richiedono infatti capacità computazionali sempre più elevate, che spesso le infrastrutture locali non riescono a sostenere.
Il cloud consente invece di passare da un modello rigido, basato su investimenti infrastrutturali pesanti, a un modello flessibile e scalabile, in cui le risorse possono essere adattate alle esigenze reali delle amministrazioni. Naturalmente questo non significa che i sistemi tradizionali non abbiano più alcun ruolo. In molti contesti è necessario mantenere livelli adeguati di sicurezza e ridondanza, soprattutto quando si tratta di dati sensibili”.
I costi della trasformazione
“È evidente però che tutto questo comporta anche una valutazione economica. “Il cloud ha un costo – ha sottolineato Portaluri – ma quando parliamo di infrastrutture altamente sofisticate e di esigenze di calcolo molto elevate può rappresentare una soluzione sostenibile anche dal punto di vista finanziario. La vera sfida, quindi, non è scegliere in modo ideologico tra cloud e infrastrutture tradizionali, ma trovare il giusto equilibrio, costruendo modelli tecnologici capaci di garantire efficienza, sicurezza e sostenibilità nel tempo. L’elemento determinante, in fondo, è proprio questo, qualunque sia la tecnologia che scegliamo di utilizzare. Se ci chiediamo se oggi esista già una risposta definitiva, probabilmente la risposta è no.
Se invece ci chiediamo se la direzione sia ormai chiara, allora la risposta è sì. La strada, in parte, è stata tracciata. Ma più che di una strada già definita, credo sia più corretto parlare di un percorso in costruzione. Un percorso che riguarda non solo l’Italia, ma anche molti altri Paesi europei – penso alla Spagna, al Portogallo, alla Grecia – che stanno affrontando sfide molto simili alle nostre. Si tratta quindi di un cammino condiviso, fatto di sperimentazione, di confronto e di progressiva evoluzione delle tecnologie e dei modelli operativi”.
Vai al sito di Cybersecurity Italia.
L'articolo CyberSEC2026. Portaluri (Magnet Forensics): “Gli algoritmi producono risultati affidabili solo a partire da dati di qualità” sembra essere il primo su CyberSecurity Italia.