Skip to main content
Seguici sui social:
Hai perso la password?

Dati fragili e strategie nebulose: perché l’AI fallisce (per ora)

L’Intelligenza Artificiale (AI) è entrata a pieno titolo nell’agenda delle aziende. Se ne parla come di una tecnologia capace di trasformare i modelli di business, ottimizzare i processi e aumentare la competitività. Eppure, nella pratica, i risultati faticano ad arrivare. Secondo un report effettuato nel 2025 dal Massachusetts Institute of Technology (MIT), circa il 95% dei progetti di intelligenza artificiale generativa nelle aziende non produce un valore di business misurabile, nonostante miliardi di dollari investiti in queste iniziative.

Secondo Antonio D’Agata, Director Strategic Accounts & Partner di Axiante, le ragioni sono chiare e ricorrenti. Due, in particolare, pesano più di tutte: la fragilità del dato; l’assenza di una strategia strutturata di adozione dell’AI.

“L’AI funziona e lavora sui dati. Se il dato non è solido, aggiornato e affidabile, l’AI non fa altro che amplificare gli errori”, spiega D’Agata. È da qui che parte ogni progetto di AI ed è spesso da qui che nasce il fallimento. Molte aziende si avvicinano all’AI sottovalutando la qualità delle informazioni di cui dispongono. I dati sono frammentati, duplicati, distribuiti su sistemi diversi e spesso privi di una reale governance. In queste condizioni, anche l’algoritmo più sofisticato produce risultati incoerenti.

Un passaggio critico è quello dei Proof of concept (Poc). “I Poc funzionano perché si basano su dataset piccoli, puliti e semplificati. Ma quando si passa ai dati reali, complessi e disomogenei, le performance crollano”, prosegue D’Agata. Il rischio è creare aspettative elevate su modelli che, una volta messi a contatto con la realtà operativa, non sono in grado di reggere la complessità del business. È un problema evidente, per esempio, negli algoritmi di Machine learning applicati alle vendite o alle previsioni di domanda: se il passato è ricostruito su dati incoerenti, anche il futuro stimato sarà inevitabilmente distorto.

Senza governance del dato, l’AI resta sterile

Alla base di tutto c’è un tema strutturale: la data governance. “Non basta raccogliere dati da più fonti. Servono regole, validazione, manutenzione continua e una visione univoca delle informazioni”, sottolinea D’Agata. È un aspetto cruciale soprattutto nei progetti di marketing e customer engagement, dove la mancanza di una visione unica del cliente porta a errori evidenti: lo stesso ‘utente’ può essere riconosciuto come entità diverse, rendendo inefficaci segmentazioni e comunicazioni automatiche. La maturità su questo fronte cambia molto in base alla dimensione aziendale. Nelle PMI persistono spesso sistemi legacy e silos applicativi, mentre le grandi organizzazioni stanno evolvendo verso piattaforme dati più integrate, spinte anche dalla necessità di preparare il terreno all’adozione dell’AI.

Accanto al tema dei dati, emerge un’altra criticità altrettanto rilevante: la mancanza di una strategia chiara. “Oggi si parla molto di AI, ma spesso si inseguono soluzioni alla moda senza capire davvero dove e perché applicarle”, evidenzia il manager di Axiante. Molte aziende avviano numerosi progetti sperimentali, ma pochi arrivano in produzione. Il motivo è semplice: l’AI è trattata come un esercizio tecnologico, non come uno strumento di business.

Ogni iniziativa dovrebbe partire da una domanda fondamentale: quale processo si vuole migliorare e quale Kpi misurabile ci si aspetta di impattare? Senza obiettivi chiari e metriche condivise, l’AI resta un prototipo permanente, incapace di generare ritorni concreti. Un errore diffuso è considerare l’AI come una tecnologia pronta all’uso: “Non è un add-on; non si installa e basta, ma va integrata in una strategia più ampia che coinvolge tecnologia, processi e persone”, ricorda D’Agata. Spesso si pensa che l’AI possa agire sui processi esistenti senza modificarli. In realtà, innovare richiede quasi sempre di ripensare il modo in cui si lavora. Senza questa maturità organizzativa, anche le soluzioni più avanzate rischiano di rimanere isolate.

Competenze e persone: il fattore decisivo

Un altro limite strutturale è la carenza di competenze interne. Secondo D’Agata, molte aziende dipendono eccessivamente dai fornitori esterni, senza avere una reale capacità di valutare e governare le soluzioni di AI. Ma il vero nodo, spesso, non è tecnico, bensì è culturale. L’AI modifica il lavoro quotidiano e genera timori comprensibili: “Senza un adeguato Change management, la tecnologia è percepita come una minaccia, non come un’opportunità”. Secondo D’Agata, l’AI non sostituirà le persone, ma automatizzerà le attività ripetitive e a basso valore, liberando tempo per ruoli più qualificati. Tuttavia, questo passaggio deve essere accompagnato da formazione, comunicazione e coinvolgimento. La velocità dell’innovazione tecnologica corre forte. “Nel futuro, volenti o nolenti, ci sarà l’AI. Non costruire competenze e non prepararsi oggi significa restare indietro domani”, mette in luce il manager. Le aziende più strutturate stanno iniziando a dotarsi di team e ruoli dedicati alla gestione dell’AI, mentre quelle più piccole si affidano spesso a fornitori esterni.

In entrambi i casi, ciò che fa la differenza è la consapevolezza: capire cosa l’AI può fare davvero, e cosa no. “Un progetto di AI non è un’iniziativa una tantum. È un sistema dinamico che richiede monitoraggio, manutenzione e miglioramento continuo”, conclude D’Agata. Solo partendo da dati di qualità, obiettivi di business chiari, competenze interne e un solido cambio culturale, l’AI può smettere di essere una promessa e diventare finalmente un vero motore di valore per le aziende.

L’articolo Dati fragili e strategie nebulose: perché l’AI fallisce (per ora) proviene da Parole di Management.