Il 17 luglio 2025 Future of Life Institute (FLI), organizzazione indipendente e no-profit impegnata nella riduzione dei rischi derivanti dalle tecnologie dell’intelligenza artificiale, ha pubblicato la seconda edizione del suo AI Safety Index. Si tratta di un’analisi delle politiche di sicurezza adottate da sette delle principali aziende al mondo nel campo dell’IA: Anthropic, OpenAI, Google DeepMind, Meta, x.AI, Zhipu AI e DeepSeek.
Il quadro che emerge non è positivo: l’industria dell’intelligenza artificiale sta crescendo a una velocità vertiginosa, ma le sue infrastrutture di sicurezza non tengono il passo. Per chi si occupa di risk assessment e gestione dei rischi nei settori critici, questo report rappresenta un segnale d’allarme che non può essere ignorato.
L’AI Safety Index valuta le aziende sulla base di 33 indicatori, organizzati in sei domini fondamentali, tra i quali proprio il risk assessment.
La metodologia è strutturata: si basa su una raccolta sistematica di dati da fonti pubbliche (articoli scientifici, policy aziendali…), integrata da questionari inviati direttamente alle aziende. Il giudizio finale è stato affidato a un panel indipendente composto da ricercatori di IA ed esperti di governance, che hanno valutato le prove e assegnato punteggi.
I risultati? Desolanti.
Nessuna azienda ha ottenuto un punteggio superiore a C+ su una scala che andava dal voto più basso -F- a quello più alto -A. La migliore è stata Anthropic con C+. OpenAI segue con C e Google DeepMind con C-).
Le aziende cinesi Zhipu AI e DeepSeek sono state valutate con una F.
Gli impegni volontari sono definiti dal report “inadeguati”.
Per i professionisti della sicurezza il capitolo più rilevante del report riguarda proprio il dominio “Risk Assessment”. Ed è anche quello più deludente.
Solo tre aziende (Anthropic, DeepMind e OpenAI) dimostrano qualche sforzo per valutare i rischi legati ai loro modelli di punta. Le altre non offrono alcuna documentazione strutturata. Inoltre, mancano metodologie esplicite che colleghino valutazioni sperimentali a rischi concreti, non esiste alcuna verifica indipendente dei processi di valutazione interna.
In sostanza, i principi basilari di una moderna gestione del rischio — documentazione, sistematicità, verificabilità — sono assenti.
I risultati dell’AI Safety Index hanno implicazioni concrete anche per il quadro normativo europeo. L’AI Act stabilisce infatti requisiti stringenti sia per chi sviluppa che per chi utilizza sistemi di AI per scopi generali, come possono essere gli LLM.
I fornitori di modelli di AI generale dovranno dimostrare capacità di identificazione, analisi e mitigazione dei rischi prevedibili. Il report mostra che, oggi, nessuna delle aziende valutate è in grado di farlo in modo sufficientemente credibile. Anche chi impiega sistemi AI in settori critici (come sanità, energia, finanza, sicurezza) eredita rischi significativi, a causa della mancanza di trasparenza, delle vulnerabilità e dell’inefficacia dei sistemi di sicurezza incorporati nei modelli.
Il messaggio che l’AI Safety Index invia alla comunità della sicurezza è inequivocabile: l’intelligenza artificiale non può essere trattata come un settore privo di vincoli operativi. È una tecnologia ad alto impatto sistemico, che richiede lo stesso rigore di analisi e governance applicato ad altri settori ad alto rischio, come l’aerospaziale, il nucleare o il farmaceutico.
L’AI Safety Index 2025 non è quindi una semplice classifica. È un documento strategico per tutti i professionisti della gestione del rischio, che offre una mappa chiara delle fragilità attuali del settore AI.
La lezione è chiara: senza una gestione del rischio rigorosa, documentata e verificabile, nessun sistema di intelligenza artificiale può essere considerato sicuro. Non oggi. E soprattutto, non domani.
Chi si occupa di sicurezza è chiamato in causa. Ora.
Il report può essere scaricato a questo indirizzo: https://futureoflife.org/ai-safety-index-summer-2025/