Impresoft 4ward Blog

Ultime tendenze e sfide nell'ecosistema delle Intelligenze Artificiali - vol. 21

Scritto da Daniele Grandini | Sep 17, 2025 8:00:00 AM

Il futuro dell’AI tra speculazioni, vulnerabilità e grandi numeri

L’AI non è mai stata così discussa, così finanziata e, al tempo stesso, così fraintesa. Da un lato, ascoltiamo continui avvertimenti sul rischio di una AI bubble (bolla dell’AI): studi di ricerca mostrano un impatto limitato sui bilanci aziendali, con progetti pilota che si arenano e una maturità organizzativa molto indietro rispetto alle aspettative. Perfino Sam Altman ha paragonato l’attuale frenesia del mercato all’era delle dot-com, avvertendo che gli investitori rischiano di perdere una “quantità fenomenale di denaro” prima che la polvere si posi.
Dall’altro lato, migliaia di miliardi di capitali stanno fluendo nelle infrastrutture, e oltre un miliardo di persone utilizza ogni settimana generative AI. Solo ChatGPT conta più di 700 milioni di utenti attivi settimanali; aggiungendo Gemini e altri concorrenti, i numeri crescono ancora di più. E questo senza contare i miliardi di persone toccate dall’AI in maniera passiva — ogni raccomandazione di prodotto, ogni suggerimento di streaming, ogni decisione algoritmica che agisce sullo sfondo delle nostre vite. Il paradosso è chiaro: l’AI è già ovunque, ma fatica ancora a dimostrare il suo valore nei bilanci. La chiamiamo bolla dell’AI, ma non somiglia affatto alle bolle del passato.

La lezione della storia

La storia mostra che ogni nuova tecnologia ha il suo punto di svolta, e di solito quel momento coincide con un disastro. Le ferrovie ebbero l’incidente di Versailles appena vent’anni dopo il primo servizio passeggeri regolare. Internet ebbe il Morris Worm nel 1988, che diffuse il caos su migliaia di sistemi UNIX. La cybersecurity ha visto il suo punto di non ritorno nel 2024, quando un aggiornamento difettoso di CrowdStrike provocò uno dei blackout più estesi della storia.
I disastri segnano la transizione dall’esperimento alla realtà. Indicano il momento in cui la tecnologia smette di essere solo un giocattolo e diventa qualcosa di critico.

Secondo questo standard, l’AI non ha ancora attraversato la soglia. Finora, il peggior esito della generative AI è stata una risposta errata a una domanda complessa. Certo, abbiamo visto effetti collaterali gravi dell’AI — la missione d’inchiesta delle Nazioni Unite che ha accusato il sistema di raccomandazioni di Facebook di alimentare la violenza contro i Rohingya dovrebbe essere considerata un disastro abilitato dall’AI — ma la GenAI non ha ancora innescato quel tipo di collasso sistemico che finisce nei telegiornali. Questo però potrebbe presto cambiare.

Da chatbot ad agent

Perché i chatbot sono una cosa, gli agent un’altra. I chatbot rispondono; gli agent agiscono. E quando gli agent sono in grado di progettare i propri workflow, concatenare task, generare codice e interagire in tempo reale con altri software, lo scenario cambia.
Il caso Brave “Comet” ha offerto un’anteprima di ciò che ci aspetta. I ricercatori hanno dimostrato che era possibile nascondere istruzioni malevole in contenuti web normali — ad esempio una riga invisibile di testo su Reddit. Quando veniva attivata la funzione “summarize this page” del browser AI, il sistema non si limitava a riassumere, ma eseguiva il comando nascosto. Improvvisamente, l’AI reimpostava account, leggeva one-time password in Gmail e le inviava agli attaccanti tramite un commento su Reddit. Nessun malware, nessun exploit — solo testo. Perché per un LLM, tutto è testo.

Questa è la trifecta letale: AI con accesso a dati esterni non affidabili, account privati degli utenti e capacità di agire per conto dell’utente. A quel punto, un disastro su larga scala causato dall’AI non è solo possibile, è inevitabile. La domanda non è “se”, ma “quando”.

Mass adoption, zero governance

E il tempismo conta, perché l’AI ha raggiunto la fase della mass intelligence. Non siamo più nella fase sperimentale degli early adopter. L’AI è accessibile quanto una ricerca su Google, ma senza neppure lontanamente il livello di governance, sicurezza o maturità degli utenti necessario. È la combinazione più pericolosa immaginabile: adozione di massa, controlli immaturi e tecnologia abbastanza sofisticata da operare in autonomia.

Nel frattempo, non si può ignorare lo strato geopolitico. La Cina ha rilasciato nuovi modelli open-weight — GLM 4.5 e DeepSeek V3.1 — che mostrano risultati competitivi nei benchmark di coding (con GLM 4.5 che supera GPT-4.1 su SWE-Bench), progettati per essere “agent-native” e con prezzi da 9 a 35 volte inferiori a GPT-5. Sulla carta sembra una rivoluzione. In realtà, è una trappola. Prezzi bassi e licenze in stile MIT sono seducenti, ma nascondono la questione più profonda: la fiducia. Davvero vogliamo affidare i nostri workflow strategici a modelli opachi provenienti da uno Stato autoritario che ha già perfezionato il dumping industriale in settori critici come auto elettriche e pannelli solari? Immaginate uno di questi agent ultra-economici e scarsamente regolati in esecuzione nei vostri sistemi, mentre interagisce non solo con i vostri dati, ma anche con gli ecosistemi di partner e clienti. Benchmark e vantaggi di costo non valgono nulla se la sicurezza crolla.

Governance come imperativo

Ecco perché la governance ora non è più negoziabile. Il NIST statunitense ha già proposto nuovi overlay per la sicurezza AI, che coprono assistant, predictive system, single agent e workflow multi-agent. L’Europa ha l’AI Act, con i suoi rischi di overregulation, ma almeno riconosce che l’AI non può restare un Far West normativo. La sfida per i board non è se adottare l’AI — quello è scontato. La sfida è come governarla, dove tracciare le linee rosse e quali modelli meritano fiducia fin dall’inizio.

L’impatto sul lavoro e sull’economia

Perché l’AI non sta solo trasformando le industrie, sta ridisegnando i mercati del lavoro. Ricercatori di Stanford, analizzando milioni di buste paga, hanno già misurato un calo del 13% nell’occupazione dei lavoratori più giovani nei settori esposti all’AI come lo sviluppo software e il customer service dal tardo 2022. I lavoratori più anziani, con conoscenza tacita, per ora sono stati risparmiati. L’AI non sostituisce l’esperienza, ma rende meno preziosa la formazione accademica ai livelli d’ingresso.
Allo stesso tempo, le aziende sono sommerse da quella che definisco la “shadow AI economy”. Quasi il 90% dei dipendenti ammette di usare strumenti AI al lavoro, mentre solo il 40% delle aziende ha abbonamenti ufficiali. L’AI è ovunque nelle organizzazioni, ma spesso invisibile, non gestita e fuori budget.

Questo scollamento alimenta la dinamica della bolla. Lo studio MIT State of AI in Business 2025 ha rilevato che il 95% dei progetti pilota aziendali non porta ad accelerazioni di ricavi. Tuttavia, lo studio stesso si basa su un campione relativamente limitato e mescola survey, interviste e deployment pubblici: utile come fotografia, ma non come evidenza scientifica conclusiva. I suoi risultati riflettono ciò che molti di noi osservano nella pratica, ma vanno letti come indicativi, non definitivi.
Gli strumenti acquistati hanno successo due volte su tre; quelli sviluppati internamente solo un terzo delle volte. Non è un fallimento dei modelli, è un fallimento delle organizzazioni. Le aziende gettano denaro nell’AI senza capire come integrarla. Spendono troppo in progetti pilota di marketing e vendite perché i risultati sono facili da mostrare, ma sottofinanziano i processi di back-office e finance dove l’ROI è spesso più alto. Il risultato è che migliaia di miliardi vengono investiti, il valore si genera fuori bilancio, ma pochissimo finisce sul P&L.

Bolla sì, bolla no

Significa che l’AI è una bolla? Sì e no. C’è hype, speculazione e denaro facile che rincorre startup con niente più di una slide “AI-powered”. Molti investitori perderanno fortune. Ma a differenza del crash delle dot-com, le infrastrutture costruite oggi non spariranno. Data center, GPU e cloud platform sono asset durevoli. Microsoft, Google e perfino Oracle stanno già monetizzando attraverso ricavi record dal cloud. Non stanno solo vendendo il sogno, stanno fatturando il consumo. La bolla potrà scoppiare a livello di startup, ma i giganti consolideranno e resisteranno.

Il vero rischio è duplice: primo, che il primo disastro causato dall’AI arrivi prima del previsto; secondo, che le aziende occidentali si ritrovino in una dipendenza strategica da modelli cinesi non affidabili. L’esito non riguarderà solo il denaro, ma la sicurezza, la sovranità e il controllo della tecnologia a uso generale più potente dai tempi dell’elettricità.

Conclusione

L’AI non scomparirà. È la tecnologia definitoria della nostra era. Ma il modo in cui la adotteremo determinerà se l’epoca della mass intelligence porterà prosperità o catastrofe. Governance, fiducia e consapevolezza geopolitica devono ora occupare il centro dell’agenda dei consigli di amministrazione. Il primo disastro AI sta arrivando. L’unica domanda è: saremo pronti?