Microsoft ha confermato l’esistenza di un bug che ha esposto diverse e-mail riservate a Copilot, la ‘sua’ AI.
Microsoft ha confermato l’esistenza di un bug che, per diverse settimane, ha consentito alla sua AI Copilot di accedere alle e-mail riservate dei clienti senza autorizzazione.
La vulnerabilità avrebbe permesso a Copilot Chat di accedere e sintetizzare il contenuto della posta elettronica a partire da gennaio.
Questa attività è avvenuta anche nei casi in cui le aziende avevano attivato la modalità di prevenzione della perdita di dati (Data Loss Prevention). Modalità, che serve impedire l’elaborazione di informazioni sensibili nei modelli linguistici di grandi dimensioni (LLM) di Microsoft.
La vulnerabilità di Office
Copilot Chat è una funzione disponibile per i clienti a pagamento di Microsoft 365 e consente di utilizzare strumenti di chat AI all’interno delle applicazioni Office. Quindi su piattaforme come Microsoft Word, Microsoft Excel e Microsoft PowerPoint.
Secondo quanto dichiarato dalla multinazionale, il bug (che gli amministratori di sistema hanno identificato con il codice CW1226324) ha colpito sia le e-mail in bozza che quelle già inviate. Il punto fondamentale è che ciascuna di queste aveva un’etichetta di riservatezza. “Le e-mail sono perciò state processate in modo errato da Microsoft 365 Copilot Chat”.
In sostanza, anche i messaggi protetti da etichette di confidenzialità sarebbero stati analizzati dall’AI per generare riassunti o risposte. Si sarebbe in questo senso contravvenuto alle impostazioni di sicurezza configurate dai clienti.
Microsoft: “Correzioni in corso“
Microsoft ha dichiarato di aver iniziato a distribuire una correzione del problema all’inizio di febbraio. Tuttavia, non sono arrivati ulteriori informazioni, né si è chiarito il numero effettivo di utenti che hanno riscontrato il problema.
L’episodio ha rilanciato il dibattito sulla gestione dei dati sensibili nei sistemi AI integrati nei software aziendali. Soprattutto quando tali strumenti operano su cloud e trattano “comunicazioni potenzialmente confidenziali“.
Preoccupazioni trasversali
Le preoccupazioni non sono rimaste isolate. All’inizio della settimana, il dipartimento IT del Parlamento Europeo ha comunicato ai parlamentari di aver bloccato le funzionalità AI integrate sui dispositivi di lavoro. Alla base della decisione, c’era il timore che gli strumenti AI potessero caricare nel cloud corrispondenza potenzialmente riservata.
Il caso “Copilot” ha evidenziato nuovamente il rapporto tra la piattaforma e le istituzioni, con al centro il dibattito sull’equilibrio tra innovazione e tutela dei dati. Con l’integrazione sempre più profonda dell’AI nei software di produttività, anche un singolo bug può trasformarsi in un rischio significativo per la sicurezza delle informazioni.
Seguici anche sul nostro canale WhatsAppVai al sito di Cybersecurity Italia.
L'articolo AI, Microsoft conferma: “Un bug di Office ha consentito a Copilot l’accesso a e-mail riservate” sembra essere il primo su CyberSecurity Italia.
📖 Leggi l'articolo completo originale:
https://www.cybersecitalia.it/ai-microsoft-conferma-un-bug-di-office-ha-esposto-diverse-e-mail-riservate-a-copilot/59852/ →