LLMs en Big Data: Waarom generatieve AI nu spotgoedkoop is (maar niet voor lang)

Hugo
2 minuten
LLMs en Big Data: Waarom generatieve AI nu spotgoedkoop is (maar niet voor lang)
Iedereen is het erover eens: generatieve AI is een bubbel. Maar het is wel een groots gefinancierde bubbel. Een bubbel waar veel bedrijven op mee kunnen liften en ondertussen échte businesswaarde creëren.

In het kort (TL;DR)

Generatieve AI is nu goedkoop doordat het voortbouwt op jaren aan Big Data investeringen en ruime rekenkracht. LLMs zijn geen magie, maar patroonherkenners die grote hoeveelheden data nodig hebben. Organisaties met goed gevulde datalakes staan voorop. Deze fase is tijdelijk. Zodra AI infrastructuur is afgeschreven en de markt consolideert, wordt AI duurder en minder toegankelijk.

LLMs: geen magie, wel patronen

Large Language Models staan op de schouders van een andere hype: Big Data. Hun kernfunctie? Het voorspellen van het volgende token op basis van de vorige. Voeg te veel variatie toe en het patroon vervaagt. Dan begint het model onzin uit te kramen.

De ijzeren wet van IT blijft ongebroken: shit in, shit out.

Maar… deze techniek kan wél iets wat eerdere technieken niet konden: werken met ongestructureerde data vol onderliggende patronen. Hoe meer, hoe beter.

Waar komt die data vandaan?

Juist: uit de Big Data-verzamelwoede van de afgelopen tien jaar. Bedrijven met grote datalakes hebben nu de beste kaarten.

Heb je die niet? Dan is het nú tijd om te verzamelen – of in te kopen.

Let op: AI is tijdelijk goedkoop

Vandaag is GenAI spotgoedkoop. Grote aanbieders kopen marktaandeel. Over vier jaar, als deze generatie AI-chips en datacenters economisch afgeschreven is, wordt het anders.

AI wordt exclusiever. Houd daar rekening mee voordat je je hele organisatie “AI-enabled” maakt.

Voor een diepere inhoudelijke blik, lees vooral de blogserie van mijn collega Janna: Demystifying AI

Of neem direct contact op via de Contactpagina voor een echt gesprek.

Laat je inspireren


© Infodation 2026 KVK 34355772