【100 miljard dollar van pijnlijke lessen】Waarom AI-assistenten die bedrijven veel kosten, vaak "vergeten" op cruciale momenten en concurrenten 90% prestatieverbetering opleveren? — Langzaam leren AI169
Voorafgaand
- De meeste AI-mislukkingen zijn niet het resultaat van domme modellen, maar van afwezigheid van context engineering — informatie is niet correct “geschreven, geselecteerd, samengeperst of geïsoleerd”.
- Het negeren van context = verlies van echt geld: van de mislukking van Bard tot “260 chicken nuggets”, bedrijven betalen de prijs voor geheugenfouten.
- Blind context verlengen vergroot slechts ruis en aanvalsvlakken; kleine en nauwkeurige contextbeheer is de sleutel tot prestaties en veiligheid.
- Begin met context, dan pas met grote modellen: de gebruikelijke voordelen zijn inputkosten -80%, nauwkeurigheid +15-90%, wat goedkoper is dan het vervangen van modellen door grotere.
De bedrijfspraktijken van 2023 tot 2025 tonen aan dat de hoofdoorzaak van mislukkingen in AI-toepassingen niet de intelligentie van het model is, maar het ontbreken van “context engineering”. Google verloor hierdoor 100 miljard dollar aan marktkapitalisatie, terwijl bedrijven die deze technologie beheersen prestatieverbeteringen van 40-90% behaalden.
I. De 100 miljard dollar les: wat gebeurt er als AI “vergeet”
De fatale klap voor Google Bard
In februari 2023 toonde Google vol vertrouwen zijn AI-chatbot Bard aan de wereld. Echter, tijdens deze veelbelovende lancering maakte Bard een schokkende fout.
Toen hem werd gevraagd naar de prestaties van de James Webb-telescoop, antwoordde Bard zelfverzekerd: “Het heeft de eerste foto van een exoplaneet gemaakt.” Dit antwoord leek professioneel, maar had een fatale fout - het was fout. De eerste foto van een exoplaneet werd namelijk in 2004 genomen door het Europees Zuiden Observatorium, bijna 20 jaar vóór de lancering van de Webb-telescoop.
Deze ogenschijnlijk kleine fout veroorzaakte een lawine-effect. Investeerders realiseerden zich onmiddellijk dat als Google’s AI niet eens basale feiten nauwkeurig kan begrijpen, hoe kan het dan betrouwbaar functioneren in complexere zakelijke contexten? Diezelfde dag kelderde de aandelenprijs van Alphabet (moederbedrijf van Google) met 9%, meer dan 100 miljard dollar aan marktwaarde vervloog. [Bron: CNN, NPR, Time berichten]
De dure “misleiding” van Air Canada
Aan het einde van 2023 had de Canadese passagier Jake Moffatt dringend een ticket nodig vanwege het overlijden van zijn grootmoeder. Hij vroeg de AI-klantenservice van Air Canada en kreeg een schijnbaar nuttig antwoord: “U kunt eerst een vol tarief ticket kopen en dan binnen 90 dagen om een korting bij overlijden vragen.”
Moffatt volgde het advies van de AI op, maar toen hij om een terugbetaling vroeg, bleek dat de korting vóór de aankoop van het ticket aangevraagd moest worden en niet achteraf. Blijkbaar had de AI-klantenservice volkomen verkeerde beleidsinformatie gegeven.
Deze zaak belandde uiteindelijk voor de rechter. De Canadese civiele arbitragecommissie deed een historische uitspraak: bedrijven moeten juridische verantwoordelijkheid dragen voor de foute adviezen van hun AI-systemen. Air Canada werd veroordeeld tot een schadevergoeding van 812,02 Canadese dollar en moest zijn AI-systeem bijwerken. [Bron: AI-rampgevallen zoals gerapporteerd door CIO]
De “260 chicken nuggets” nachtmerrie van McDonald’s
In juni 2024 beëindigde McDonald’s zijn driejarige AI-bestelproject met IBM. Deze beslissing volgde na een reeks hilarische misbakken.
Het meest bekende voorval gebeurde in een McDonald’s Drive-thru. Een klant wilde gewoon een paar chicken nuggets bestellen, maar het AI-systeem “raakte in de war” en bleef chicken nuggets aan de bestelling toevoegen. De klant riep “stop! stop!”, maar de AI luisterde niet en uiteindelijk stond er 260 chicken nuggets op de lijst.
Deze video werd een virale hit op sociale media en ging de boeken in als een klassiek voorbeeld van een AI-fout. McDonald’s moest meer dan 100 vestigingen van het AI-test systeem sluiten, en de drie jaar van R&D investeringen waren in rook opgegaan. [Bron: Analyse van AI-mislukkingen door CIO]
II. De waarheidsontdekking: het is niet dat AI niet slim genoeg is, maar het “geheugensysteem” werkt niet goed
Een genie met ernstige “Alzheimer”
Stel je het volgende voor: je hebt een top expert met een IQ van 180 als assistent, hij is zeer deskundig en heeft uitzonderlijke rekenvaardigheden. Maar er is een probleem: hij lijdt aan ernstige kortetermijngeheugenstoornissen en vergeet om de paar minuten wat er eerder is besproken.
Dit is de werkelijke situatie van de meeste huidige bedrijfs-AI-systemen. Het ontbreekt hen niet aan “wijsheid” (modelcapaciteit), maar aan effectief “geheugenbeheer” (context engineering).
Wat is “context”? Begrijp het met behulp van vergadernotulen
In ons dagelijks werk is “context” overal aanwezig. Stel je voor dat je een belangrijke projectvergadering bijwoont:
- Vergaderachtergrond: Waarom is deze vergadering samengeroepen? (dat is de AI’s systeemprompt)
- Geschiedenis: Wat is er besproken tijdens voorgaande vergaderingen? (dat is de gespreksgeschiedenis)
- Relevante documenten: Rapporten, gegevens en contracten die moeten worden bekeken (dat is de kennisdatabase)
- Deelnemers: ieders rol en verantwoordelijkheden (dat is de definitie van tools en rechten)
- Vergadernotulen: Belangrijke beslissingen en actiepunten (dat is de samenvatting van het geheugen)
Als deze “context” ontbreekt, kan zelfs de meest bekwame expert geen goede beslissingen nemen. Dit is precies de oorzaak van de fouten van Google Bard — het ontbrak aan accurate historische gegevens en feitelijke verificatiemechanismen bij het beantwoorden van vragen.
De pijnlijke lessen uit de industrie
Volgens onderzoek van Gartner staat de industrie voor bijzonder ernstige uitdagingen bij AI-toepassingen:
- Slechts 20% van de generatieve AI-projecten wordt als succesvol beschouwd
- 85% van de AI-projecten heeft niet de verwachte doelen bereikt
- 42% van de bedrijven is van plan hun AI-plannen in 2025 te beëindigen (in 2024 was dit percentage slechts 17%)
[Bron: Appinventiv, SupplyChainBrain’s rapport over AI in de industrie]
Waarom is het faalpercentage in de industrie zo hoog? Het antwoord ligt wederom in het ontbreken van context engineering:
- Leegegevens in de geschiedenis: Nieuwe AI-systemen hebben geen toegang tot belangrijke productiedata in oude systemen.
- Gemis aan realtime informatie: AI heeft geen zicht op de huidige toestand van apparaten en voorraadniveaus tijdens het nemen van beslissingen.
- Kennisisolatie: De AI-systemen van verschillende afdelingen opereren in hun eigen vacuüm en kunnen geen cruciale informatie delen.
III. Context engineering: de oplossing voor AI om een “volledig geheugen” te hebben
Voorzie AI van een “slimme secretaresse”
De essentie van context engineering is als het uitrusten van je AI-systeem met een extreem capabele secretaresse. De taken van deze secretaresse zijn:
Belangrijke informatie vastleggen (Write/ schrijven)
- Belangrijke beslissingen en conclusies vastleggen
- Zoals een secretaresse zou doen met vergadernotulen
Selecteren van relevante materialen (Select/ selecteren)
- Huidige benodigde informatie uit de enorme hoeveelheid zien
- Zoals een secretaresse zou doen met relevante documenten
Samenvatten van belangrijke punten (Compress/ samendrukken)
- Lange rapporten omzetten in belangrijke essenties
- Zoals een secretaresse een uitvoeringssamenvatting zou maken
Coördineren van teamverdelingen (Isolate/ isoleren)
- Verschillende experts laten werken aan hun eigen specialiteiten
- Zoals een secretaresse gespecialiseerde vergaderingen regelt
Een echt geval: de geweldige transformatie van een verzekeringsmaatschappij
Five Sigma verzekeringsbedrijf veranderde zijn claims behandelingsproces volledig door context engineering toe te passen: [Bron: MarkTechPost casestudy]
De problemen vóór de transformatie:
- AI-systemen gaven vaak tegenstrijdige claimadviezen met de voorwaarden van de polissen.
- Ze konden fraudemodellen niet herkennen, omdat ze geen toegang hadden tot historische claimdata.
- Frequent foutbij de verwerking van complexe zaken.
Na de implementatie van context engineering:
- Het systeem had gelijktijdig toegang tot: polisvoorwaarden, claimhistorie, wettelijke vereisten, en fraudedatabases.
- Fouten in claimsbehandeling verminderden met 80%
- Efficiëntie van claims medewerkers steeg met 25%
- Nauwkeurigheid van verzekeringen steeg tot meer dan 95%
De sleutel was dat ze het AI-model niet vervingen, maar slechts de organisatie en overdracht van informatie verbeterden.
De revolutie in ontwikkelaarstools van Microsoft
Microsofts AI-programmeerassistent demonstreert de kracht van context engineering: [Bron: Microsoft officiële blog]
Door de volgende contextuele informatie samen te brengen:
- De projectgeschiedenis van de ontwikkelaar
- De codestandaarden van het team
- Relevante technische documentatie
- De afhankelijkheden in de codebase
Behaalde resultaten:
- De voltooiingsgraad van softwaretaken steeg met 26%
- Codefouten verminderden met 65%
- Tijd voor nieuwe medewerkers om in te werken verkort met 55%
- Codekwaliteit verbeterde met 70%
IV. De valkuilen van lange context: waarom “hoe meer je onthoudt” niet altijd betekent “hoe beter je doet”
De waarschuwing van het AWS-veiligheidsteam
In 2024 ontdekte het AWS-veiligheidsonderzoeksteam een ernstig probleem: wanneer het “geheugen” van AI-systemen overbelast raakt, ontstaan er fatale kwetsbaarheden. [Bron: Technische analyse van Towards Data Science]
Stel je het volgende voor: je AI-assistent moet een rapport van 1000 pagina’s verwerken. Theoretisch kan het nieuwe AI-model “alle informatie onthouden”. Maar in werkelijkheid gebeurt het volgende:
- Belangrijke instructies aan het begin werden “uit het geheugen” gedrukt.
- Kwaadaardige gebruikers kunnen het geheugen van de AI “vervuilen” met veel irrelevante informatie.
- De AI begint hallucinaties te hebben en maakt beslissingen op basis van foutieve informatie.
Dit is als een persoon die probeert een hele encyclopedie te onthouden - te veel informatie leidt tot wanorde.
De oplossing van Tesla voor autonoom rijden
Het volledige autonome rijsysteem (FSD) van Tesla is een van de meest complexe implementaties van context engineering: [Bron: Tesla officiële website, Wikipedia]
- 48 neurale netwerken werken samen
- Elk tijdsegment genereert 1000 verschillende tensoren
- Behandelt realtime videostreams van 8 camera’s
- Heeft meer dan 1 miljard mijl gereden
Hoe beheert Tesla zo’n enorme informatiestroom? Het antwoord is “slimme filtering”:
- Niet alle informatie is even belangrijk
- Dringende informatie (zoals een plotselinge voetganger) krijgt prioriteit
- Historische informatie wordt opgeslagen op basis van belangrijkheid.
- Verschillende neurale netwerken zijn verantwoordelijk voor verschillende soorten informatie.
V. De nieuwste doorbraken van de giganten: wat ze hebben geleerd van 100 miljard dollar aan lessen
OpenAI’s Model Context Protocol (MCP)
Aan het einde van 2024 lanceerde OpenAI het revolutionaire MCP-protocol, dat het “M×N-probleem” aanpakte: [Bron: Pluralsight, Microsoft Learn]
De problemen met traditionele methodes:
- 10 AI-modellen × 100 gegevensbronnen = 1000 aangepaste interfaces nodig.
- Elke interface moet afzonderlijk worden ontwikkeld en onderhouden.
De oplossing van MCP:
- Creëer een uniforme “generieke taal”
- Elk AI-model kan via een standaardinterface toegang krijgen tot elke gegevensbron.
- Vermindert de integratiekosten met meer dan 90%
Anthropic’s “Constitutie AI”
Anthropic (de ontwikkelaar van Claude) heeft een unieke aanpak toegepast: [Bron: Officieel onderzoek van Anthropic]
Zij nodigden 1000 Amerikaanse burgers uit om mee te helpen bij het opstellen van de ‘gedragsrichtlijnen’ voor AI, om te zorgen dat AI-systemen:
- Menselijke waarden begrijpen en respecteren.
- Ethische beslissingen nemen in complexe situaties.
- De kans op misbruik van 86% verlagen tot 4,4%
Google Gemini’s miljoenen contexten
Google leerde van de fouten van Bard en Gemini 1.5 Pro bereikte: [Bron: Google officiële blog]
- Stabiele context van 1 miljoen tokens (dat zijn ongeveer 700.000 woorden in het Chinees)
- Ondersteunt gelijktijdig audio-, video-, tekst- en codeverwerking.
- Kan een hele film of een stapel van honderden pagina’s documenten analyseren.
Maar Google erkent ook: een grotere context betekent niet per se betere prestaties, het draait om hoe die informatie georganiseerd en gebruikt wordt.
Slimme routering van Microsoft Azure
Microsoft biedt in Azure AI Foundry verschillende varianten van modellen aan: [Bron: Microsoft Azure blog]
- GPT-5: 272K context, ideaal voor complexe redeneringen.
- GPT-5 mini: geoptimaliseerd voor realtime ervaring.
- GPT-5 nano: ultrasnelle reactie.
- De slimme router selecteert automatisch het meest geschikte model, wat 60% van de kosten bespaart.
VI. Samenwerking van meerdere agenten: de praktijken van Amazon en Walmart
Amazon’s leger van 750.000 robots
Het automatiseringssysteem van Amazon’s magazijnen toont de kracht van grootschalig contextbeheer: [Bron: Amazon officiële rapport, LinkedIn analyse]
- 750.000 mobiele robots werden in 2023 ingezet.
- Sequoia-systeem verkortde verwerkingskosten met 25%.
- Door route-optimalisatie werd 3000 miljoen mijl aan rijafstand bespaard.
- 9400 ton CO₂-uitstoot verminderd.
- Het schadepercentage van pakketten bleef op onder de 0,1%.
Het succes ligt in “gelaagd contextbeheer”:
- Elke robot hoeft alleen zijn eigen taak te begrijpen.
- Regionale controllers coördineren de lokale robotgroepen.
- Het centrale AI-systeem beheert de globale optimalisatie.
Walmart’s AI-voorraad revolutie
Walmart heeft AI-systemen geïmplementeerd in meer dan 4700 winkels, die: [Bron: Officiële nieuws van Walmart, Walmart Tech-blog]
Meerdimensionale contextinformatie:
- Historische verkoopgegevens.
- Weersvoorspellingen (die koopgedrag beïnvloeden).
- Macro-economische trends.
- Lokale demografie.
- Trends op sociale media.
Unieke innovaties:
- “Abnormale vergeting” - gepatenteerde technologie: automatische uitsluiting van eenmalige gebeurtenissen (zoals pandemisch inkopen) die de voorspellingen beïnvloeden.
- Dynamische aanpassingsalgoritmes: realtime aanpassingen op basis van feestdagen en promotieacties.
Resultaten:
- 24% groei in Q3 van 2023.
- Ruta-optimalisatie vermijdt 3000 miljoen onnodige ritten.
- Doel om in het boekjaar 2026 65% van de winkels te automatiseren.
VII. General Electric’s “bescheiden AI”: weten wat het niet weet
De wijsheid van 1,2 miljoen digitale tweelingen
General Electric (GE) heeft in de periode 2016-2017 meer dan 1,2 miljoen digitale tweelingen gecreëerd, wat resulteerde in 600 miljard dollar aan waarde: [Bron: Emerj, Microsoft Research]
Hun “bescheiden AI”-framework is opmerkelijk:
- AI-systemen kunnen hun eigen mogelijkheden herkennen.
- Wanneer ze situaties tegenkomen die ze niet begrijpen, schakelen ze automatisch naar de veilige modus.
- Ze vragen actief menselijke experts om hulp.
Feitelijke resultaten:
- 20% toename van de energieproductie van windparken.
- Jaarlijks 400 ongeplande onderhoudsinterventies voorkomen (in de vliegtuigindustrie).
- 30% vermindering van ongepland onderhoud (door voorspellend onderhoud).
Deze aanpak voorkwam rampzalige gevolgen die voortkwamen uit AI die “begreep maar niet al het begreep”.
VIII. De vier kerntechnologieën van context engineering
Geïnspireerd door onderzoek van experts zoals Phil Schmid, Lance Martin en de praktijken van LangChain en LlamaIndex, omvat context engineering vier belangrijke operaties: [Bron: philschmid.de, rlancemartin.github.io, blog.langchain.com]
1. Schrijven (Write): het opbouwen van het “langetermijngeheugen” van AI
Net zoals mensen dagboeken en notities bijhouden, moeten AI-systemen belangrijke informatie vastleggen:
Schrijven binnen een sessie:
- Tijdelijke aantekeningen (zoals rekenprocessen)
- Tussenstappen van gedachten
- Planning van de huidige taak
Duurzaam schrijven:
- Samenvattingen van gebruikersvoorkeuren
- Belangrijke bedrijfsregels
- Geschiedenis van beslissingen
Toepassingen zoals ChatGPT en Cursor laten AI op deze manier “leren” en “groeien” door voortdurende interactie met gebruikers.
2. Selecteren (Select): het vinden van de “informatie die op dit moment nodig is”
Stel je voor dat je assistant een rapport moet voorbereiden, hij zou niet de hele bibliotheek meebrengen, maar de nodige informatie nauwkeurig selecteren:
Bepaalde selectie:
- Vastgestelde lading van bepaalde belangrijke documenten (zoals bedrijfsbeleid).
Modelgestuurde selectie:
- De AI laat zelf bepalen welke informatie nodig is.
Zoekgebaseerde selectie:
- Het vinden van relevante content via gelijkenis-zoekopdrachten.
3. Samendrukken (Compress): “Oorlog en Vrede” tot één pagina
Wanneer er te veel informatie is, is slimme compressie noodzakelijk:
Automatische samenvattingen:
- Het comprimeren van een 1000 woorden e-mail tot drie zinspunten.
Belangrijkheidsindex:
- Het behouden van de cruciale 20% informatie, wat 80% van de waarde dekt.
Incrementele updates:
- Alleen de veranderde onderdelen vastleggen, niet een volledige kopie maken.
4. Isoleren (Isolate): samenwerking van het expertteam
Complexe taken vragen om samenwerking tussen meerdere AI-experts:
Taakverdeling:
- Financieel analisten behandelen cijfers.
- Juridische experts toetsen de naleving.
- Schrijvers zijn verantwoordelijk voor het eindrapport.
Informatie isolatie:
- Elke expert ontvangt alleen relevante informatie.
- Voorkomen van informatieoverload en verwarring.
Resultaten integreren:
- De hoofd-AI combineert de meningen van de experts.
- Maakt de uiteindelijke beslissing.
IX. Rendement op investering: waarom context engineering voordeliger is dan het upgraden van modellen
Indrukwekkende kosteneffectiviteit
Volgens de branchedatexperts overschrijden de rendementen van investeringen in context engineering die van modelupgrades aanzienlijk: [Bron: Diverse case studies]
Context engineering:
- Neemt 5% van het AI-budget in beslag.
- Levert een 40-90% prestatieverbetering.
- Implementatietijd: 2-3 maanden.
Modelupgrades:
- Neemt 60-70% van het AI-budget in beslag.
- Levert een 10-20 % prestatieverbetering.
- Implementatietijd: 6-12 maanden.
De feitelijke cijfers van een technologiebedrijf
Een middelgroot technologiebedrijf heeft de volgende gegevens:
- Na de invoering van context engineering, bespaarde het 23.000 dollar per maand aan computerkosten.
- Door context-inkorting daalde de invoergrootte met 80%.
- De kosten voor API-aanroepen daalden ook met 80%.
- De prestaties stegen met 15%.
Dit is vergelijkbaar met het verbeteren van verkeersplanning, wat zowel brandstofkosten bespaart als reistijd verkort.
X. Vooruitblik op 2025: de cruciale stap van “demonstratie” naar “productie”
Consensus van branche-experts
“De meeste mislukkingen van AI-agenten zijn niet langer het falen van het model, maar van de context.” Dit is nu de gangbare gedachte binnen de industrie.
Cognition (het ontwikkelingsteam van Devin AI) benadrukt: “Context engineering is de belangrijkste taak bij het bouwen van AI-agenten.” [Bron: cognition.ai blog]
Drie acties voor bedrijven
1. Voer onmiddellijk een “context gezondheidsonderzoek” uit.
Registreer de specifieke situaties waarin uw AI-systemen falen:
- Wat ontbreekt er aan informatie als de AI een verkeerd antwoord geeft?
- Waar zijn er gegevensonderbrekingen?
- Tot welke gegevensbronnen heeft het huidige systeem toegang?
2. Kies een hoogwaardig proefproject
Probeer niet alle systemen in één keer te transformeren, kies er een:
- Met hoge gebruiksfrequentie.
- Waar de kosten van mislukkingen hoog zijn.
- Met duidelijke ruimte voor verbetering.
Bijvoorbeeld: klantenservice, orderverwerking, rapportgeneratie.
3. Creëer een samenwerkingsmechanisme over afdelingen heen
Context engineering vereist:
- IT-afdeling: biedt technische ondersteuning.
- Bedrijfsafdelingen: definieert informatiebehoeften.
- Datateams: waarborgt gegevenskwaliteit.
- Compliance-teams: zorgt voor informatiebeveiliging.
Vermijd gangbare valkuilen
Valkuil 1: Blindelings streven naar grote modellen
- Foutieve gedachte: Hoe groter het model, hoe beter.
- Juiste benadering: Optimaliseer eerst de context, overweeg dan om modellen te upgraden.
Valkuil 2: Hoe meer informatie, hoe beter.
- Foutieve gedachte: Geef de AI alle mogelijke informatie.
- Juiste benadering: Verstrek alleen de relevante informatie.
Valkuil 3: Negeren van informatiekwaliteit
- Foutieve gedachte: Informatie is informatie.
- Juiste aanpak: Zorg voor precisie, tijdigheid en structuur van informatie.
Slotwoord: Begin van een nieuw tijdperk
De periode 2023-2025 zal de geschiedenis ingaan als het “jaar van context engineering”. Van Google’s 100 miljard dollar les tot de succesvolle praktijken van Tesla, Amazon, en Walmart, we zien een duidelijke trend:
Het succes van AI hangt niet langer af van een “slimmer brein”, maar van een “betere geheugenstructuur”.
Bedrijven die context engineering beheersen, verwerven duurzame concurrentievoordelen:
- Dramatische verhoging van de operationele efficiëntie.
- Significante verbetering van de klantervaring.
- Meervoudige groei van het rendement op investering.
- Aanzienlijke verlaging van risico’s en fouten.
Bedrijven die deze trend negeren, zullen misschien net als degenen die de internetrevolutie hebben gemist, achterblijven in de tijdfase.
Zoals een belangrijke figuur in de industrie zei: “In het tijdperk van AI kan context engineering mogelijk het meest renderende deel van uw AI-investeringen zijn.”
Het is tijd om uw AI-strategie te heroverwegen. Niet te vragen “Hebben we een sterkere AI nodig?” maar eerder “Hoe kunnen we de bestaande AI beter laten begrijpen en onthouden wat belangrijk is?”
Het antwoord ligt in context engineering.
Dit artikel is gebaseerd op de praktijkgevallen van internationale koplopers tussen 2023 en 2025. Alle gegevens zijn afkomstig uit openbare rapporten en officiële publicaties.