Come la sicurezza per la sovranità AI espone i rischi delle infrastrutture legacy
- Marc Griffith

- 12 ore fa
- Tempo di lettura: 5 min

Sintesi Gli investimenti europei nella sovranità digitale e nell'AI nascondono un problema concreto: i sistemi legacy che supportano infrastrutture critiche restano esposti. Un nuovo framework AI-native per la ricerca di vulnerabilità ha individuato una zero-day critica (CVE-2026-32746) in GNU Inetutils telnetd, mostrando come la protezione delle infrastrutture storiche sia cruciale per la sicurezza nazionale e per le strategie di sovranità AI. Key takeaways
|
Introduzione
La sicurezza per la sovranità AI deve partire dalla capacità di identificare e correggere le vulnerabilità nei sistemi legacy che supportano infrastrutture critiche. Mentre l'Europa accelera gli investimenti in intelligenza artificiale, cloud e sistemi dati per ridurre la dipendenza da fornitori esterni, cresce allo stesso tempo la necessità di considerare la sicurezza delle tecnologie meno visibili ma pervasive che governano energia, trasporti, sanità e servizi pubblici.
Il problema nascosto sotto la parola 'sovranità'
Molte infrastrutture pubbliche sono costruite su pile tecnologiche ibride che combinano componenti moderni con software e dispositivi legacy difficili da aggiornare. Questi strati creano punti ciechi che gli approcci tradizionali di cyber security fanno fatica a mappare e proteggere in modo sistematico.
Un framework AI-native per la ricerca di vulnerabilità
La novità proposta dall'azienda DREAM è un framework di ricerca sulla sicurezza nativo per l'AI che usa agenti multipli per analizzare codice sorgente, binari, protocolli di rete e comportamento di sistema su larga scala. L'approccio multi-agent permette di eseguire analisi ampie e profonde su superfici d'attacco frammentate e eterogenee, superando i limiti dell'analisi manuale condotta da piccoli team.
Come funziona, in pratica
Il framework coordina moduli specializzati che simulano, estraggono e valutano comportamenti di rete e di processo per risalire a condizioni che possono essere sfruttate da attaccanti avanzati. Questo approccio consente di automatizzare la scoperta di pattern pericolosi sia in codice moderno sia in componenti che non ricevono più aggiornamenti regolari.
Il multi-agent design permette l'analisi orizzontale di intere infrastrutture, integrando output da analisi statiche e dinamiche per identificare vulnerabilità altrimenti invisibili.
La dimostrazione: CVE-2026-32746 in GNU Inetutils telnetd
Come prova del potenziale del sistema, DREAM ha rivelato una zero-day critica (CVE-2026-32746) in GNU Inetutils telnetd, con severity 9.8, che consente esecuzione remota non autenticata. La falla si attiva durante l'handshake Telnet, prima dell'autenticazione, quindi una singola connessione può compromettere un sistema in molte deployment dove telnetd gira con privilegi elevati.
Perché questo è importante per chi costruisce tecnologia
Telnet è un protocollo datato ma ancora presente in apparecchiature di rete, sistemi embedded e operational technology; la sua esposizione evidenzia come anche servizi “obsoleti” possano rappresentare un rischio sistemico. Misurazioni pubbliche mostrano centinaia di migliaia di servizi Telnet ancora accessibili da Internet, molti dei quali sono difficili da aggiornare o sostituire rapidamente.
Una singola falla in un servizio legacy può compromettere intere catene operative; per la sovranità digitale questo rappresenta un punto di debolezza strategico.
Implicazioni per la sovranità tecnologica
I piani per la sovranità AI non funzioneranno se l'infrastruttura sottostante rimane vulnerabile e non aggiornabile. Anche quando l'UE e gli Stati nazionali investono in piattaforme controllate e ambienti fidati per l'AI, questi sistemi opereranno su infrastrutture che spesso includono componenti legacy e servizi trascurati.
Cosa significa per policy maker e imprese
La priorità deve essere una strategia che metta insieme sviluppo di capacità AI e programmazione operativa per l'inventario, il monitoraggio e il patching delle componenti legacy. Senza interventi mirati, la superficie d'attacco rimane estesa e gli sforzi per creare ecosistemi AI sovrani rischiano di essere vanificati.
Citazioni chiave dai ricercatori
"Questo framework ci permette di investigare tecnologie complesse in modo fondamentalmente diverso", ha dichiarato Kfir Fleischer, VP Research & Product di DREAM. Fleischer ha sottolineato come gran parte dell'infrastruttura governativa dipenda ancora da tecnologie legacy e trascurate, malgrado siano obiettivo di attori avanzati.
"Stiamo entrando in un mondo in cui i sistemi di AI diventeranno parte dell'infrastruttura nazionale", ha aggiunto Amir Becker, Chief Business and Strategy Officer di DREAM. Becker ha evidenziato che comprendere le vulnerabilità attraverso questi sistemi sarà una delle sfide di sicurezza dominanti del prossimo decennio.
Paragrafo di dibattito critico
La discussione intorno alla sicurezza per la sovranità AI non può limitarsi alla costruzione di modelli e data center nazionali: è necessario un approccio olistico che includa governance, risorse per manutenzione e piani di mitigazione per componenti legacy. Da un lato, le iniziative di sovranità digitale sono inevitabili e strategiche: controllare stack tecnologici critici offre indipendenza, limiti agli expoit di fornitori esterni e migliori garanzie di compliance. Dall'altro lato però, la focalizzazione sui nuovi stack rischia di distogliere risorse specifiche per la gestione degli elementi più fragili dell'ecosistema IT, come dispositivi embedded, firmware non aggiornato e protocolli obsoleti. Un approccio esclusivamente tecnocratico che mette al centro solo la costruzione di infrastrutture AI “nazionali” rischia di creare un falso senso di sicurezza se non si affiancano programmi concreti per il lifecycle management delle componenti legacy: inventari certificati, processi di mitigazione temporanea (compensating controls), segmentazione delle reti e test di penetrazione automatizzati e su larga scala. Inoltre, esiste un dilemma pratico sul funding: gli Stati possono finanziare centri AI ma la manutenzione quotidiana di milioni di dispositivi distribuiti nei settori critici è spesso responsabilità di enti locali o di terze parti con budget limitati. Questo gap operativo apre opportunità per servizi privati specializzati e per partnership pubblico-private, ma impone requisiti stringenti di responsabilità e trasparenza. Infine, la dipendenza dall'automazione AI per la scoperta vulnerabilità solleva interrogativi etici e legali sul disclosure e sulla responsabilità in caso di exploit resi pubblici: come bilanciare la necessità di correggere rapidamente le falle con il rischio che informazioni sensibili vengano sfruttate? In sintesi, la strategia ideale combina investimenti in capacità sovrane di AI con programmi pratici di hardening e governance distribuita, coinvolgendo attori pubblici e privati in una roadmap condivisa e finanziabile.
Azioni pratiche per founder e CTO
Valuta inventari completi delle tue dipendenze, includendo componenti legacy e protocolli obsoleti, e integra test automatizzati di superficie d'attacco nelle pipeline di sviluppo e deployment. Ecco passi concreti: mappare servizi esposti (anche quelli difficili da aggiornare), applicare segmentazione di rete, introdurre compensating controls e definire piani di update/rollback per sistemi embedded.
Checklist rapida
1) Identifica servizi legacy esposti; 2) Prioritizza patching in base al rischio operativo; 3) Automatizza scansioni e threat-hunting; 4) Definisci policy di disclosure e recovery. Queste attività riducono la finestra di esposizione e migliorano la resilienza complessiva dell'ecosistema IT aziendale.
Conclusione: mettere la difesa al centro della sovranità
La sicurezza per la sovranità AI richiede che la strategia europea sulla sovranità digitale includa misure operative per aggiornare, monitorare e mitigare componenti legacy nelle infrastrutture critiche. Investire in capacità AI-native per la ricerca di vulnerabilità è fondamentale, ma deve essere accompagnato da politiche di governance, finanziamento e collaborazione pubblico-privato per trasformare la scoperta in azione efficace.
Per chi costruisce prodotti e servizi di AI, il messaggio è chiaro: integrare la gestione dei legacy fin dalle prime fasi di design è una leva competitiva e una necessità di sicurezza.




