Il nuovo AI Index Report 2025 pubblicato da Stanford è un campanello d’allarme per i leader aziendali: l’intelligenza artificiale è diventata drammaticamente più capace, decisamente più accessibile e pericolosamente poco regolamentata. Il report si estende per oltre 400 pagine di analisi e grafici basati sui dati, offrendo la panoramica più chiara finora sulle forze che stanno ridefinendo business, produttività e concorrenza.
I sistemi di AI hanno mostrato miglioramenti enormi nel 2024. Su compiti come la programmazione avanzata, i modelli sono passati dal risolvere il 4,4% dei problemi SWE-bench al 71,7% in un solo anno. Alcuni hanno persino superato gli esseri umani in competizioni matematiche. Tuttavia, l’hype ha i suoi limiti: i modelli di punta hanno fallito in test di ragionamento complesso come Humanity’s Last Exam, ottenendo appena l’8,8%—un promemoria che, nonostante i rapidi progressi, l’intelligenza generale resta ancora lontana.
Il costo per eseguire modelli ad alte prestazioni come equivalenti di GPT-3.5 è sceso di oltre 280 volte dal 2022—da 20 dollari a 0,07 dollari per milione di token. Questa accessibilità sta alimentando una diffusione sperimentale e trasversale dell’AI in vari settori, generando quello che molti definiscono un vero boom di adozione.
Secondo il report, il 78% delle aziende utilizza oggi l’AI in qualche forma, rispetto al 55% dell’anno precedente. L’uso della generative AI è raddoppiato, raggiungendo il 71%, con benefici tangibili—soprattutto nell’assistenza clienti, dove la produttività è cresciuta di oltre il 14%. Tuttavia, per la maggior parte delle aziende, l’AI genera ancora ritorni contenuti: meno del 10% di risparmio sui costi o il 5% di aumento dei ricavi.
Gli Stati Uniti mantengono la leadership nello sviluppo dei migliori modelli AI, ma la Cina sta rapidamente colmando il divario, riducendo una differenza di benchmark del 9% a solo l’1,7%. Anche i modelli open-weight stanno raggiungendo quelli closed-source, offrendo alle aziende più scelta e mettendo pressione sugli attori dominanti.
Mentre i costi d’uso calano, quelli di training stanno aumentando vertiginosamente. Ad esempio, il modello Llama 3.1 405B è costato oltre 170 milioni di dollari per essere addestrato, e si prevede che i futuri frontier models supereranno il miliardo di dollari. Le esigenze di compute raddoppiano ogni cinque mesi, e con esse aumentano anche i consumi energetici. Si segnala che alcune aziende stanno investendo in energia nucleare o riattivando infrastrutture a carbone per soddisfare la domanda energetica dell’AI.
Contemporaneamente, il web inizia a resistere: il 48% dei principali domini blocca ora i crawler AI, minacciando l’accesso ai dati di training di alta qualità.
Forse il dato più preoccupante: gli incidenti legati all’AI sono aumentati del 56% nell’ultimo anno. I test di sicurezza standardizzati sono rari, i bias persistono e gli sforzi di mitigazione sono in ritardo. L’UE ha intrapreso azioni attraverso nuove regolamentazioni, ma negli USA solo 4 delle 221 leggi proposte sull’AI sono state approvate nel 2024. Senza una governance più forte, il rischio di abusi o di fallimenti sistemici cresce rapidamente.
Il panorama competitivo dell’AI nel 2025 è al tempo stesso un’opportunità e un avvertimento. Da un lato, strumenti AI potenti e accessibili sono ormai alla portata di quasi tutte le organizzazioni—democratizzando automazione, produttività e innovazione. Dall’altro, scalare l’adozione dell’AI senza adeguate misure di sicurezza è rischioso, costoso e impattante per l’ambiente.
Cosa significa per te:
L’AI è ormai infrastruttura—come l’elettricità o internet. Alimenta processi in modo invisibile e pervasivo, in quasi ogni settore. Il report di Stanford conferma che, se da un lato gli strumenti stanno diventando migliori e più economici, la fiducia nell’AI deve essere conquistata—attraverso pratiche trasparenti, validazione della sicurezza e deployment responsabile.
Stiamo ancora “costruendo questo aereo mentre è in volo” e le turbolenze all’orizzonte—che si tratti di consumo energetico, fallimenti dei modelli o vuoti normativi—impongono ai leader di bilanciare la sperimentazione rapida con la cautela.