Copilot, assistente AI di Microsoft, ha inventato una partita di calcio che, inclusa in un rapporto dell’intelligence, ha portato al divieto di trasferta per i tifosi del Maccabi Tel Aviv. Le scuse del capo della Polizia delle West Midlands.
Può l’AI inventare una partita di calcio, poi inserita in un rapporto di intelligence della Polizia con cui legittimare il divieto di trasferta per i tifosi? Sembrerebbe incredibile ma è quanto accaduto in Uk, prima della partita di Europa League tra Aston Villa e Maccabi Tel Aviv dello scorso novembre. E a cadere nell’errore è stata la Polizia delle West Midlands, una delle più importanti nel Paese.
Il capo della Polizia delle West Midlands Craig Guildford, ha scritto il Guardian, “si è scusato con i parlamentari per aver fornito loro prove errate riguardo la decisione di bloccare i tifosi del Maccabi Tel Aviv“. Intervenendo nella commissione per gli affari interni, Guildford ha affermato che a produrre queste prove era stata proprio l’AI, in particolare Copilot, piattaforma di Microsoft.
Il rapporto – che serviva per valutare la sicurezza dell’evento – riportava un incontro mai avvenuto tra West Ham e Maccabi Tel Aviv. “Tale informazione fittizia“, generata da Copilot, ha portato al divieto di accesso allo stadio per i tifosi israeliani. Ci sono per questo state pesanti implicazioni in termini di discriminazione e affidabilità delle fonti.
Quali sono le origini dell’errore?
Inizialmente, le autorità britanniche avevano attribuito l’errore a una raccolta automatica di dati dai social media o a un risultato di ricerca fuorviante su Google. Solo successivamente, “Craig Guildford ha riconosciuto che l’origine dell’informazione inesatta era l’assistente AI di Microsoft“.
L’episodio ha sollevato interrogativi significativi sull’utilizzo di strumenti generativi in ambiti critici come la sicurezza pubblica. “Basta infatti un’allucinazione dell’AI per generare conseguenze sproporzionate“.
Da parte sua, Microsoft ha sottolineato che gli utenti di Copilot dovrebbero sempre verificare le fonti delle informazioni prodotte. Contestualmente, la stessa multinazionale ha ricordato: “L’interfaccia include avvisi espliciti riguardo alla possibilità di errori“.
Linee guida per le piattaforme AI negli enti pubblici
“L’episodio“, ha evidenziato The Verge, “dimostra quanto sia urgente definire linee guida chiare per l’impiego responsabile dell’AI, soprattutto da parte di enti pubblici“.
Il caso dell’impiego di prove non verificate, in secondo luogo, ha dimostrato come la fiducia cieca negli output generati automaticamente possa compromettere decisioni operative. In questi termini si potrebbero alimentare varie tensioni sociali “in modo non giustificato“.
Seguici anche sul nostro canale WhatsAppVai al sito di Cybersecurity Italia.
L'articolo Uk, la Polizia accusa Microsoft Copilot per un errore d’intelligence. Cosa è successo sembra essere il primo su CyberSecurity Italia.
📖 Leggi l'articolo completo originale:
https://www.cybersecitalia.it/uk-la-polizia-accusa-microsoft-copilot-per-un-errore-d-intelligence-cosa-e-successo/58057/ →