La Cyber Security Foundation lancia una sfida cruciale per il futuro digitale del Paese: si chiama "AI SICURA" ed è la prima iniziativa nazionale volta a valutare come l'Italia stia gestendo la sicurezza legata all'Intelligenza Artificiale. Il progetto, realizzato con il contributo scientifico della Luiss Business School, ha l'obiettivo di censire i livelli di protezione attuali per proporre soluzioni concrete e operative.
Presentata ufficialmente a Roma, nella cornice di Villa Blanc, l'iniziativa punta a creare una solida alleanza tra pubblico e privato. Il fine ultimo è trasformare la sicurezza dell'AI da semplice necessità difensiva a vero e proprio vantaggio competitivo per il Sistema Paese, coinvolgendo attivamente la Pubblica Amministrazione, le imprese, il mondo accademico e la comunità degli esperti.
Il cuore operativo del progetto risiede in un questionario nazionale rivolto ai Chief Information Security Officer (CISO) e ai responsabili della sicurezza. L'indagine servirà a rilevare la consapevolezza sui rischi, le architetture adottate, le minacce maggiormente temute e le strategie difensive in atto. I risultati di questa ricognizione confluiranno nel “Rapporto sulla Sicurezza dell’AI in Italia”, un documento che fornirà un indice di maturità specifico, raccomandazioni strategiche e strumenti pratici per un’adozione sicura delle nuove tecnologie.
Fabio Battelli, Direttore del settore Intelligenza Artificiale per la Cyber Security Foundation, ha spiegato la filosofia alla base dell'operazione: “Con AI SICURA vogliamo misurare con dati reali lo stato della sicurezza dell’intelligenza artificiale in Italia e abilitare un’alleanza pubblico–privato che la trasformi in un vantaggio competitivo, perché l’AI può essere il nostro più grande alleato o il nostro più grande rischio e la differenza la facciamo noi”.
Fondamentale il ruolo della Luiss Business School, che curerà gli aspetti scientifici definendo il metodo di indagine e l'interpretazione dei risultati. Il Professor Cristiano Busco, Direttore BU Consulting dell'ateneo, ha dichiarato: «La Luiss Business School sta sviluppando studi e approfondimenti accademici sui temi della Information Safety, distinguendola dalla tradizionale Information Security, per affrontare le sfide specifiche poste dai contenuti generati dall’Intelligenza Artificiale. Questo lavoro, che sarà integrato nel progetto AI SICURA, ha portato alla definizione di una tassonomia che classifica l'informazione come "sicura" solo se corretta, aperta e benigna, offrendo linee guida essenziali per la governance del rischio e garantendo un impatto positivo sull'ecosistema sociale ed economico».
Sul versante tecnologico, il progetto si avvale della partnership con Palo Alto Networks, chiamata a portare nel Rapporto la prospettiva sulle soluzioni di cyber security più avanzate. Francesco Seminaroti, Sales Director dell'azienda, ha sottolineato: «Palo Alto Networks è onorata di essere partner tecnologico della Fondazione. In questo ruolo, intendiamo contribuire allo sviluppo del Rapporto AI SICURA con la nostra profonda conoscenza delle minacce emergenti e le prospettive sulle soluzioni di cybersecurity più avanzate, essenziali non solo per proteggere gli ecosistemi di intelligenza artificiale, ma anche per sfruttare l’AI stessa per la difesa affinché diventi un reale vantaggio competitivo per ogni azienda».
Durante l'evento di presentazione, a cui hanno preso parte anche i ricercatori Mattia Siciliano e Giovanna Capilli, è stato mostrato in anteprima un prototipo della piattaforma a supporto della gestione dei self-assessment. Questo strumento consentirà in futuro di visualizzare i benchmark nazionali per i diversi settori produttivi, favorendo un confronto continuo all’interno della comunità dei responsabili della sicurezza.