【100 miliardi di dollari di lezioni dolorose】Perché gli assistenti AI, costosi e disposti dalle aziende, "perdono la memoria" nei momenti cruciali, mentre i concorrenti ottengono un aumento delle prestazioni del 90%? — Impariamo lentamente l'AI 169
Introduzione
- La maggior parte dei fallimenti dell’AI non è dovuta alla “stupidità” del modello, ma all’assenza di ingegneria del contesto — le informazioni non vengono correttamente “scritte, selezionate, comprese e isolate”.
- Ignorare il contesto significa perdere denaro reale: dall’incidente del lancio di Bard ai “260 nuggets di pollo”, le aziende stanno pagando per i difetti di memoria.
- Allungare il contesto senza criterio amplificherà solo rumore e vulnerabilità; una gestione del contesto piccola e precisa è la soluzione per prestazioni e sicurezza.
- Prima gestire il contesto, poi discutere i modelli di grandi dimensioni: i guadagni comuni sono un costo d’ingresso ridotto del 80% e un’accuratezza aumentata del 15-90%, molto più conveniente che sostituire il modello con uno più grande.
Le pratiche aziendali dal 2023 al 2025 dimostrano che il motivo principale del fallimento delle applicazioni AI non è la mancanza di intelligenza del modello, ma l’assenza di “ingegneria del contesto”. Google ha dunque perso 100 miliardi di dollari di valore di mercato, mentre le aziende che padroneggiano questa tecnologia hanno ottenuto un aumento delle prestazioni del 40-90%.
I. Lezione da 100 miliardi di dollari: Cosa succede quando l’AI “perde la memoria”?
Il colpo mortale di Google Bard
Nel febbraio 2023, Google ha presentato con grande fiducia il suo chatbot AI, Bard, al mondo. Tuttavia, durante questo atteso evento, Bard ha commesso un errore scioccante.
Quando gli è stato chiesto dei risultati del Telescopio Spaziale James Webb, Bard ha risposto con sicurezza: “Ha scattato la prima foto di un pianeta al di fuori del nostro sistema solare.” Questa risposta sembra professionale, ma presenta un problema fatale: è errata. In realtà, la prima foto di un esopianeta è stata scattata nel 2004 dall’Osservatorio del Cile, quasi 20 anni prima del lancio del telescopio Webb.
Questo errore apparentemente insignificante ha innescato un effetto a valanga. Gli investitori hanno immediatamente realizzato che se l’intelligenza artificiale di Google non fosse stata in grado di gestire informazioni di base, come avrebbe potuto operare in scenari commerciali più complessi? Quel giorno, il prezzo delle azioni di Alphabet (la madre di Google) è crollato del 9%, con una perdita di valore di oltre 100 miliardi di dollari. [Fonte: CNN, NPR, Time]
L’“errore costoso” di Air Canada
Alla fine del 2023, un passeggero canadese, Jake Moffatt, ha dovuto acquistare un biglietto aereo d’urgenza per la morte della nonna. Ha consultato l’assistente clienti AI di Air Canada e ha ricevuto una risposta apparentemente premurosa: “Può prima acquistare un biglietto a prezzo pieno e poi richiedere un rimborso per lo sconto per lutto entro 90 giorni.”
Moffatt ha seguito il consiglio dell’AI, solo per scoprire al momento di richiedere il rimborso che lo sconto per lutto doveva essere richiesto prima dell’acquisto e non può essere retroattivo. L’assistente AI aveva fornito informazioni completamente errate sulla politica.
Questo caso è finito in tribunale. La Corte Civile Canadese ha emesso una storica sentenza: le aziende devono essere legalmente responsabili per i consigli errati forniti dai loro sistemi AI. Air Canada è stata condannata a risarcire 812,02 dollari canadesi e costretta ad aggiornare il proprio sistema AI. [Fonte: analisi dei casi di disastri AI riportati da CIO]
L’incubo dei “260 nuggets di pollo” di McDonald’s
Nel giugno 2024, McDonald’s ha interrotto la sua collaborazione di tre anni con IBM per i sistemi di ordinazione AI. Questa decisione è stata innescata da una serie di eventi esilaranti ma deludenti.
Il più noto si è verificato in un ristorante McDonald’s drive-thru. Un cliente desiderava ordinare solo alcuni nuggets di pollo, ma il sistema AI ha improvvisamente “impazzito”, aggiungendo incessantemente nuggets all’ordine. Il cliente urlava “ferma! ferma!”, ma il sistema AI sembrava non ascoltare, e alla fine l’ordine è risultato in 260 nuggets di pollo.
Il video di questo episodio è diventato virale sui social media, diventando un classico esempio di fallimento dell’AI. McDonald’s ha dovuto chiudere i sistemi di prova AI in oltre 100 ristoranti, sprecando anni di investimenti in ricerca e sviluppo. [Fonte: analisi dei casi di disastri aziendali AI di CIO]
II. Svelare la verità: non è che l’AI non sia abbastanza intelligente, ma il “sistema di memoria” è difettoso
Il genio con una grave forma di “Alzheimer”
Immagina questo scenario: assumi un assistente che ha un quoziente intellettivo di 180, esperto in vari campi e con capacità di calcolo straordinarie. Ma c’è un problema: soffre di un grave disturbo della memoria a breve termine e dimentica il contenuto delle conversazioni ogni pochi minuti.
Questa è la realtà della maggior parte dei sistemi AI attuali delle aziende. Non mancano di “intelligenza” (capacità del modello), ma piuttosto di una gestione efficace della “memoria” (ingegneria del contesto).
Cos’è il “contesto”? Comprenderlo attraverso i verbali delle riunioni
Nella vita lavorativa quotidiana degli esseri umani, il “contesto” è omnipresente. Immagina di partecipare a una riunione importante su un progetto:
- Contesto della riunione: perché si tiene questa riunione? (equivalente al prompt del sistema AI)
- Storia delle discussioni: cosa è stato discusso nelle riunioni precedenti? (equivalente alla cronologia delle conversazioni)
- Documenti rilevanti: rapporti, dati, contratti da consultare (equivalente alla knowledge base)
- Partecipanti: ruoli e responsabilità di ciascuno (equivalente alla definizione degli strumenti e dei permessi)
- Verbali della riunione: decisioni e azioni chiave (equivalente al riassunto della memoria)
Se mancano questi “contesti”, anche il miglior esperto non sarà in grado di prendere decisioni corrette. Questo è il motivo fondamentale dell’errore commesso da Google Bard: mancava di dati storici accurati e meccanismi di verifica dei fatti durante il processo di risposta.
Le lezioni dolorose dell’industria manifatturiera
Secondo una ricerca di Gartner, l’industria manifatturiera affronta sfide particolarmente gravi nell’implementazione dell’AI:
- Solo il 20% dei progetti AI generativi è considerato di successo
- L’85% dei progetti AI non raggiunge gli obiettivi previsti
- Il 42% delle aziende prevede di abbandonare i piani AI entro il 2025 (nel 2024, questa percentuale era solo del 17%)
[Fonte: relazione sull’AI nell’industria manifatturiera di Appinventiv, SupplyChainBrain]
Perché la percentuale di fallimenti nell’industria manifatturiera è così elevata? La risposta è ancora una volta l’assenza di ingegneria del contesto:
- Discontinuity nei dati storici: i nuovi sistemi AI non riescono ad accedere ai dati di produzione cruciali nei sistemi precedenti.
- Mancanza di informazioni in tempo reale: l’AI non riesce a vedere lo stato attuale delle attrezzature o i livelli di inventario durante la presa di decisioni.
- Silosi di conoscenza: i sistemi AI di diversi reparti operano in isolamento, non condividendo informazioni chiave.
III. Ingegneria del contesto: la soluzione per dare all’AI una “memoria completa”
Dotare l’AI di un “segretario intelligente”
L’ingegneria del contesto è essenzialmente come dotare il tuo sistema AI di un segretario estremamente capace. I compiti di questo segretario comprendono:
Registrare informazioni importanti (Write/ scrivere)
- Salvare decisioni chiave e conclusioni
- Proprio come un segretario organizza i verbali delle riunioni
Selezionare documenti pertinenti (Select/ selezionare)
- Estirpare le informazioni attuali da un mare di dati
- Proprio come un segretario prepara i documenti pertinenti per te
Riassumere punti chiave (Compress/ comprimere)
- Ridurre rapporti lunghi a sintesi significative
- Proprio come un segretario redige un sommario esecutivo
Coordinare i compiti tra i membri del team (Isolate/ isolare)
- Permettere a diversi esperti di gestire le loro aree di competenza
- Proprio come un segretario pianifica riunioni specializzate
Un caso reale: la meravigliosa trasformazione di un’azienda di assicurazioni
Five Sigma, un’azienda di assicurazioni, ha trasformato radicalmente i suoi processi di gestione dei sinistri implementando l’ingegneria del contesto: [Fonte: studio di caso di MarkTechPost]
Difficoltà prima della trasformazione:
- Il sistema AI forniva frequentemente consigli sui risarcimenti in contrasto con i termini delle polizze
- Non riusciva a identificare schemi di frode poiché non poteva accedere ai dati storici delle richieste di indennizzo
- Commetteva errori frequenti nel trattamento di casi complessi
Dopo l’implementazione dell’ingegneria del contesto:
- Il sistema ora può accedere simultaneamente: termini della polizza, storie di risarcimento, requisiti normativi, database frodi
- Errori nei risarcimenti ridotti dell’80%
- Efficienza dei liquidatori aumentata del 25%
- Precisione dell’assicurazione oltre il 95%
Il segreto del loro successo? Non hanno cambiato il modello AI, ma hanno solo migliorato l’organizzazione e la trasmissione delle informazioni.
La rivoluzione degli strumenti per sviluppatori di Microsoft
L’assistente di programmazione AI di Microsoft ha dimostrato la potenza dell’ingegneria del contesto: [Fonte: blog ufficiale di Microsoft]
Integrando le seguenti informazioni contestuali:
- Storia dei progetti degli sviluppatori
- Standard di codifica del team
- Documentazione tecnica pertinente
- Relazioni di dipendenza del codice
Risultati ottenuti:
- Incremento del 26% nel tasso di completamento delle attività software
- Riduzione del 65% degli errori di codice
- Riduzione del 55% del tempo di onboarding per i nuovi assunti
- Miglioramento del 70% nella qualità del codice
IV. Le trappole dei lunghi contesti: perché “ricordare di più” non equvale a “fare meglio”
L’avvertimento del team di sicurezza di AWS
Nel 2024, il team di ricerca sulla sicurezza di AWS ha rilevato un problema grave: quando la “memoria” del sistema AI è sovraccarica, possono emergere vulnerabilità fatali. [Fonte: analisi tecnica di Towards Data Science]
Immagina uno scenario: il tuo assistente AI deve elaborare un rapporto di 1000 pagine. Teoricamente, il nuovo modello AI potrebbe “ricordare” tutto. Tuttavia, ciò che accade nella realtà è:
- Importanti istruzioni precedenti vengono “espulse” dalla memoria
- Utenti malintenzionati possono “contaminare” la memoria dell’AI con informazioni irrilevanti
- L’AI inizia a generare allucinazioni, prendendo decisioni basate su informazioni errate
È come se una persona cercasse di ricordare un’intera enciclopedia: troppi dati possono solo causare confusione.
La soluzione dell’auto-guida di Tesla
Il sistema di guida autonoma (FSD) di Tesla è uno dei risultati più complessi dell’ingegneria del contesto: [Fonte: sito ufficiale di Tesla, Wikipedia]
- 48 reti neurali che collaborano
- Ogni passo temporale genera 1000 tensori diversi
- Elaborando in tempo reale video provenienti da 8 telecamere
- Con un chilometraggio cumulativo di oltre 1 miliardo di miglia
Come gestisce Tesla un flusso informativo così vasto? La risposta è “filtraggio intelligente”:
- Non tutte le informazioni sono ugualmente importanti
- Le informazioni urgenti (come pedoni improvvisi) vengono trattate prioritariamente
- Le informazioni storiche vengono memorizzate in base all’importanza
- Diverse reti neurali sono responsabili per diversi tipi di dati
V. Le ultime scoperte delle aziende leader: cosa hanno appreso dalle lezioni da 100 miliardi di dollari
Protocolli di contesto del modello di OpenAI (MCP)
Alla fine del 2024, OpenAI ha lanciato un innovativo protocollo MCP, che affronta il “problema M×N”: [Fonte: Pluralsight, Microsoft Learn]
Le sfide dell’approccio tradizionale:
- 10 modelli AI × 100 fonti di dati = necessità di 1000 interfacce personalizzate
- Ogni interfaccia deve essere sviluppata e mantenuta separatamente
La soluzione MCP:
- Creazione di un linguaggio “universale”
- Qualsiasi modello AI può accedere a qualsiasi fonte di dati tramite un’interfaccia standard
- Riduzione dei costi di integrazione di oltre il 90%
L’”AI costituzionale” di Anthropic
Anthropic (la società che sviluppa Claude) ha adottato un approccio unico: [Fonte: studio ufficiale di Anthropic]
Hanno invitato 1000 cittadini americani a partecipare alla creazione di “norme comportamentali” per l’AI, garantendo che i sistemi AI:
- Comprendano e rispettino i valori umani
- Prendano decisioni eticamente conformi in situazioni complesse
- Riducano il tasso di sfruttamento malevolo dall’86% al 4,4%
Il milione di contesti di Google Gemini
Google ha appreso dalla sconfitta di Bard e ha implementato Gemini 1.5 Pro ottenendo: [Fonte: blog ufficiale di Google]
- Un contesto stabile da 1 milione di token (equivalente a 700.000 parole in cinese)
- Capacità di elaborare audio, video, testo e codice simultaneamente
- Abilità di analizzare un intero film o centinaia di pagine di documenti
Tuttavia, Google ha anche ammesso: un contesto maggiore non significa necessariamente migliori prestazioni; la chiave risiede in come tali informazioni sono organizzate e utilizzate.
Il routing intelligente di Microsoft Azure
Microsoft ha fornito varie varianti di modelli nell’AI Foundry di Azure: [Fonte: blog di Microsoft Azure]
- GPT-5: 272K contesto, adatto per inferenze complesse
- GPT-5 mini: ottimizzato per esperienze in tempo reale
- GPT-5 nano: risposta a latenza ultra-bassa
- Il router intelligente seleziona automaticamente il modello più adatto, risparmiando il 60% dei costi
VI. Collaborazione tra agenti: le pratiche di Amazon e Walmart
Il reggimento di 750.000 robot di Amazon
Il sistema di automazione dei magazzini di Amazon mostra la potenza della gestione contestuale su vasta scala: [Fonte: notizie ufficiali di Amazon, analisi di LinkedIn]
- 750.000 robot mobili distribuiti nel 2023
- Il sistema Sequoia ha ridotto il tempo di elaborazione degli ordini del 25%
- Ottimizzazione dei percorsi ha risparmiato 30 milioni di miglia di percorrenza
- Ridotto l’emissione di CO₂ di 94 milioni di libbre
- Tasso di danno ai pacchi mantenuto sotto 0,1%
Il segreto del suo successo risiede nella “gestione del contesto stratificata”:
- Ogni robot ha bisogno di conoscere solo il proprio compito
- I controllori regionali coordinano i gruppi di robot locali
- Un sistema AI centrale gestisce l’ottimizzazione globale
La rivoluzione dell’AI nell’inventario di Walmart
Il sistema AI implementato in oltre 4700 negozi Walmart ha integrato: [Fonte: notizie ufficiali di Walmart, blog Walmart Tech]
Informazioni contestuali multidimensionali:
- Dati storici delle vendite
- Previsioni meteorologiche (che influenzano i modelli di acquisto)
- Tendenze economiche generali
- Statistiche demografiche locali
- Tendenze sui social media
Innovazione unica:
- Tecnologie di brevetto per “obliterazione delle anomalie”: escludere automaticamente l’influenza di eventi isolati (come il magazzinaggio pandemico) sulle previsioni
- Algoritmi di aggiustamento dinamico: adattare le strategie in tempo reale in base a festività e promozioni
Risultati:
- Crescita del 24% nel Q3 del 2023
- Ottimizzazione dei percorsi ha evitato 30 milioni di miglia di guida superflua
- Obiettivo di automatizzare il 65% dei negozi entro l’anno fiscale 2026
VII. L’AI umile di General Electric: sapere cosa non si sa
L’intelligenza dei 1,2 milioni di gemelli digitali
General Electric (GE) ha creato oltre 1,2 milioni di gemelli digitali tra il 2016 e il 2017, generando un valore di 600 miliardi di dollari: [Fonte: Emerj, ricerca Microsoft]
Il loro quadro di “AI umile” merita particolare attenzione:
- I sistemi AI possono riconoscere i propri limiti
- Quando affrontano situazioni al di là della loro comprensione, passano automaticamente alla modalità sicura
- Richiedono attivamente l’intervento di esperti umani
Risultati effettivi:
- Incremento della produzione di energia eolica del 20%
- Prevenzione di 400 interventi di manutenzione non programmati ogni anno (settore aereo)
- Riduzione della manutenzione non programmata del 30% (sfruttando la manutenzione predittiva)
Questo approccio evita catastrofici incidenti derivati dall’AI che “fa finta di sapere”.
VIII. Le quattro tecnologie chiave dell’ingegneria del contesto
Basandosi sulle ricerche di esperti come Phil Schmid e Lance Martin, e sulle pratiche di LangChain e LlamaIndex, l’ingegneria del contesto comprende quattro operazioni chiave: [Fonte: philschmid.de, rlancemartin.github.io, blog.langchain.com]
1. Scrivere (Write): costruire la “memoria a lungo termine” dell’AI
Proprio come gli esseri umani scrivono diari e prendere appunti, i sistemi AI hanno bisogno di registrare informazioni importanti:
Scrittura durante la conversazione:
- Bozze temporanee (come i processi di calcolo)
- Passaggi di pensiero intermedi
- Pianificazione dei compiti attuali
Scrittura persistente:
- Sommari delle preferenze degli utenti
- Regole aziendali chiave
- Registri delle decisioni storiche
Applicazioni come ChatGPT e Cursor utilizzano questo metodo per consentire all’AI di “imparare” e “crescere” durante le interazioni continue con gli utenti.
2. Selezionare (Select): trovare le informazioni più necessarie “in questo momento”
Immagina che il tuo assistente debba preparare un rapporto: non porterà via l’intera biblioteca, ma selezionerà esattamente le informazioni richieste:
Selezione deterministica:
- Caricare sempre determinati documenti chiave (come le politiche aziendali)
Selezione guidata dal modello:
- Lasciare che l’AI giudichi quale sia rilevante
Selezione basata sulla ricerca:
- Trovare contenuti simili attraverso la ricerca per similarità
3. Comprimere (Compress): ottenere “Guerre e pace” in una sola pagina
Quando le informazioni sono eccessive, è necessario un’intelligente compressione:
Riassunto automatico:
- Ridurre un’email di 1000 parole a tre frasi chiave
Ordinamento per importanza:
- Mantenere il 20% massimo delle informazioni, coprendo l’80% del valore
Aggiornamenti incrementali:
- Registrare solo le parti cambiate, senza duplicare l’intero contenuto
4. Isolare (Isolate): collaborazione tra team di esperti
Compiti complessi richiedono la collaborazione di più esperti AI:
Scomposizione delle attività:
- Analista finanziario che gestisce i numeri
- Esperto legale che esamina la conformità
- Esperto di scrittura responsabile del rapporto finale
Isolamento delle informazioni:
- Ciascun esperto ottiene solo le informazioni pertinenti
- Evitare sovraccarico e confusione delle informazioni
Integrazione dei risultati:
- L’AI principale sintetizza le opinioni di ogni esperto
- Prende decisioni finali
IX. Ritorno sugli investimenti: perché l’ingegneria del contesto è più redditizia dell’aggiornamento del modello
Un sorprendente rapporto costo-efficacia
Secondo i dati del settore, il ritorno sugli investimenti dell’ingegneria del contesto supera di gran lunga quello dell’aggiornamento del modello: [Fonte: sintesi di vari casi]
Ingengeria del contesto:
- Rappresenta il 5% del budget AI
- Porta a un aumento delle prestazioni del 40-90%
- Periodo di attuazione: 2-3 mesi
Aggiornamento del modello:
- Occupa il 60-70% del budget AI
- Porta a un aumento delle prestazioni del 10-20%
- Periodo di attuazione: 6-12 mesi
La fattura reale di un’azienda tecnologica
Dati reali di una media azienda tecnologica:
- Dopo l’implementazione dell’ingegneria del contesto, ha risparmiato 23.000 dollari al mese nei costi di calcolo
- Grazie alla compressione del contesto, la dimensione dell’input è diminuita dell’80%
- I costi delle chiamate API sono diminuiti proporzionalmente dell’80%
- Le performance sono aumentate del 15%
È come migliorare la pianificazione del traffico: risparmi carburante e riduci i tempi di pendolarismo.
X. Prospettive per il 2025: un passo cruciale dall’”esibizione” alla “produzione”
Il consenso tra gli esperti del settore
“Il fallimento della maggior parte degli agenti AI non riguarda più il modello, ma il contesto.” Questo è diventato un consenso nel settore.
Cognition (il team di sviluppo di Devin AI) sottolinea che: “L’ingegneria del contesto è il primo lavoro nella costruzione di agenti AI”. [Fonte: blog di cognition.ai]
Tre suggerimenti per le aziende
1. Effettuare un’immediata “verifica della salute del contesto”
Registrare scenari specifici di fallimento del sistema AI:
- Quali informazioni mancavano quando l’AI ha fornito una risposta errata?
- Dove ci sono lacune informative?
- Quali fonti di dati possono attualmente accedere i sistemi esistenti?
2. Scegliere un pilota di alto valore
Non cercare di ristrutturare tutti i sistemi contemporaneamente; scegli uno:
- Utilizzato frequentemente
- Con costi di fallimento elevati
- Con spazio di miglioramento evidente
Esempi: servizio clienti, elaborazione ordini, generazione di report
3. Stabilire meccanismi di collaborazione tra reparti
L’ingegneria del contesto richiede:
- Reparto IT: supporto tecnico
- Reparto commerciale: definizione delle esigenze informative
- Team dati: assicurare la qualità dei dati
- Team di conformità: garantire la sicurezza delle informazioni
Evitare trappole comuni
Trappola 1: cercare ciecamente modelli più grandi
- Idea sbagliata: più grande è il modello, migliore è
- Pratica corretta: ottimizzare prima il contesto, allora considerare il miglioramento del modello
Trappola 2: più informazioni sono meglio
- Idea sbagliata: dare all’AI tutte le informazioni possibili
- Pratica corretta: fornire informazioni pertinenti con precisione
Trappola 3: trascurare la qualità delle informazioni
- Idea sbagliata: avere informazioni è sufficiente
- Pratica corretta: garantire l’accuratezza, la tempestività e la strutturazione delle informazioni
Conclusione: un inizio per una nuova era
Il periodo 2023-2025 sarà ricordato nella storia come “l’anno dell’ingegneria del contesto”. Dalla lezione da 100 miliardi di dollari di Google, alla pratica di successo di Tesla, Amazon e Walmart, abbiamo visto una chiara tendenza:
Il successo dell’AI non dipende più da “cervelli più intelligenti”, ma da “sistemi di memoria migliori”.
Le aziende che padroneggiano l’ingegneria del contesto stanno ottenendo un vantaggio competitivo sostenibile:
- Eccellente efficienza operativa
- Notevole miglioramento dell’esperienza del cliente
- Moltiplicazione dei ritorni sugli investimenti
- Sensibile riduzione di rischi ed errori
E quelle aziende che ignorano questa tendenza potrebbero finire emarginate dalla storia, proprio come quelle che hanno perso la rivoluzione di Internet.
Come ha detto un leader del settore: “Nell’era dell’AI, l’ingegneria del contesto potrebbe rappresentare la parte di maggior rendimento del tuo investimento in AI.”
Ora è tempo di rivedere la tua strategia AI. Non chiederti “abbiamo bisogno di un’AI più potente?”, ma “come possiamo far sì che l’AI esistente comprenda e memorizzi meglio le informazioni chiave?”
La risposta si trova nell’ingegneria del contesto.
L’articolo è basato su pratiche di aziende leader a livello internazionale dal 2023 al 2025; tutti i dati provengono da report pubblici e annunci ufficiali.