L’AI che “analizza i mercati” è diventata una promessa facile da vendere: notizie, bilanci, flussi, prezzi, tutto dentro; segnali fuori, in tempo reale. Ma la domanda che conta è più scomoda: sta creando valore stabile oppure stiamo scambiando velocità per certezza?
Il primo limite è strutturale: i mercati cambiano regime. Un modello addestrato su anni di dati può funzionare finché il mondo resta simile a quello visto in training; poi basta un cambio di politica monetaria, una crisi geopolitica o una rotazione di settore e la “mappa” non coincide più col territorio. E se molti operatori usano strumenti simili, l’edge si comprime: se tutti vedono lo stesso segnale, chi resta a pagare lo slippage?
Il secondo limite è industriale, non statistico: l’AI costa. Servono data center, energia, chip specializzati, capex continui. Anche la filiera lo sta ricordando agli investitori: Broadcom, pur indicando domanda forte, ha segnalato che un mix più pesante di ricavi legati all’AI può diluire il margine lordo di circa 100 punti base rispetto al trimestre precedente. Sul fronte cloud, Oracle è diventata un promemoria simile: pipeline e contratti possono crescere, ma se la spesa per l’infrastruttura aumenta più in fretta, il mercato torna a preoccuparsi di cassa, debito e sostenibilità finanziaria dell’espansione. È qui che nascono le paure di “bolla”: non perché l’AI sia finta, ma perché non sempre monetizza con la stessa velocità con cui assorbe capitali.
Poi ci sono le regole. Quando l’AI entra nei servizi di investimento (profilazione, raccomandazioni, esecuzione, gestione), non basta dire “lo ha detto il modello”. In Europa ESMA ha pubblicato indicazioni per le imprese che usano AI verso clienti retail: in pratica, gli obblighi MiFID II su trasparenza, correttezza, governance, controllo dei rischi e responsabilità restano centrali. Negli Stati Uniti la SEC ha proposto un quadro per gestire i conflitti d’interesse legati a tecnologie predittive (predictive data analytics) e in seguito ha formalmente ritirato alcune proposte senza adottare regole finali, lasciando aperta la porta a nuove iniziative regolatorie.
Quindi, come usare l’AI sui mercati senza raccontarsi favole? Tre paletti pratici: (1) governance e tracciabilità (dati, ipotesi, versioni, responsabilità); (2) test “cattivi” (walk-forward, stress test, controlli anti-overfitting e anti-leakage); (3) human-in-the-loop e kill switch (quando cambiano le condizioni, sai fermare il modello?). Perché alla fine la domanda è semplice: se domani il mercato cambia faccia, sai spiegare perché l’AI entra o esce, oppure lo scopri solo dopo aver perso soldi?




