News - 27 novembre 2025, 12:00

Intelligenza artificiale – rischio o opportunità?

Cosa è importante conoscere per usare in sicurezza l’IA

Intelligenza artificiale – rischio o opportunità?

Ormai da diversi anni affrontiamo il tema delle nuove frontiere tecnologiche che offrono innovative opportunità non solo alle aziende, ai cittadini ed alla PA, ma anche alla criminalità economica o digitale che le utilizza per aumentare la capacità di consumare reati ed occultarne i profitti.

In effetti, l’intelligenza artificiale viene definita dall’IA Act dell’Unione Europea (art. 3) come “un sistema automatizzato (basato su macchine) progettato per funzionare con diversi livelli di autonomia e che può mostrare capacità di adattamento dopo l’installazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

Appare assolutamente chiaro come la visione del legislatore europeo sia basata su esempi ad oggi noti di IA, come le applicazioni per testi tipo Chat GPT, Gemini o similari. In realtà, una definizione scientifica di IA non esiste: il termine IA viene usato come sinonimo di software, un programma per computer capace di generare output a fronte di un input. Ma tutti i programmi software hanno fatto, da sempre, esattamente questo e non può essere considerata IA generativa il prodotto di un software che fornisce un esito acquisendo dal web tutto ciò che trova sulla domanda che gli è posta e che ordina gli esiti della ricerca secondo sequenze logiche probabilistiche (se 10 fonti dicono che il cavallo di Napoleone era bianco è plausibile che lo fosse davvero, quindi l’IA mi dirà che il cavallo di Napoleone era bianco).

Quindi, governare l’IA significa catalogare le informazioni utilizzabili dal software per essere sicuri che il prodotto esitato sia esatto. Infatti, se cerco le informazioni nel mio dominio informatico (il mio PC, la mia rete domestica o professionale) posso essere sicuro che l’output mi fornirà un prodotto “verificato”. Viceversa, se la fonte delle informazioni ricercate dal software è il web, se non addirittura il dark web, ciò che accade oggi per i software di IA, allora l’output non potrà definirsi sicuro, perché il processo deduttivo potrà essere condizionato da informazioni errate o volutamente artefatte presenti sul web. Si pensi alle campagne denigratorie di personaggi famosi o di politici.

In definitiva, il fondamentale problema legato all’IA è quello della “autenticazione delle fonti” da cui i software traggono le informazioni utilizzate per realizzare il prodotto finale per l’utente.

Ma possiamo certificare miliardi di informazioni che girano sul web? Ovviamente no. Il tema delle regole in questo campo è un tema di grande rilievo per la competitività delle nostre aziende, della nostra difesa e della stessa PA la quale per essere efficace ed efficiente e rispondere alle sfide dei prossimi anni deve necessariamente avvalersi di strumenti di IA estremamente performanti e capaci di costituire un ausilio di altissimo livello al cittadino ed alle aziende che hanno necessità di processi decisionali della PA rapidi ed efficaci.

Maurizio Vallone

SU