Back to Blog

AI-jargon ontcijferd: De essentiële termen die je moet kennen

Je zit in een meeting en iemand begint over RAG-implementatie en context windows optimaliseren. Of je leest een artikel over AI en struikelt over acroniemen als MCP en LLM. Je knikt meelevend, maar denkt stiekem: wat betekenen deze termen nou eigenlijk?

De AI-wereld produceert jargon sneller dan de meeste mensen het kunnen bijbenen. Maar je hoeft geen technische expert te zijn om deze kernconcepten te begrijpen. In deze gids leg ik de belangrijkste AI-termen uit die je regelmatig tegenkomt, zonder technische complexiteit maar met genoeg diepgang om te begrijpen waarom ze ertoe doen.

Zie dit als je startpunt. Voor elk concept geldt: als je dieper wilt duiken, schrijf ik binnenkort gedetailleerde posts waarin ik verder inga op hoe het precies werkt en hoe je het in de praktijk toepast.

LLM: Large Language Model

Een LLM is de technologie achter ChatGPT, Claude en vergelijkbare AI-tools. Het is een AI-model dat getraind is op enorme hoeveelheden tekst van het internet, boeken en andere bronnen. Door al die data te analyseren heeft het geleerd hoe taal werkt en kan het mensachtige tekst genereren. Het woord "large" verwijst naar twee dingen: de gigantische hoeveelheid trainingsdata én de complexiteit van het model zelf, vaak miljarden parameters die samenwerken. Wanneer je een vraag stelt aan ChatGPT, gebruik je een LLM dat een antwoord genereert op basis van patronen die het in al die taal heeft herkend.

Context Window

De context window is de hoeveelheid tekst die een AI-model in één keer kan "zien" en gebruiken. Vergelijk het met je werkgeheugen tijdens een gesprek: je onthoudt wat er net gezegd is, maar je kunt niet elk detail van elk gesprek ooit actief in je hoofd houden. Vroege modellen hadden kleine context windows van ongeveer 3.000 woorden, waardoor je snel tegen limieten aanliep bij langere gesprekken of documenten. Moderne modellen zoals Claude kunnen wel 150.000 woorden tegelijk verwerken, wat praktisch betekent dat je hele rapporten kunt analyseren of complexe gesprekken kunt voeren zonder dat het model belangrijke context verliest.

Prompt

Een prompt is simpelweg de instructie of vraag die je aan een AI-model geeft. Het lijkt simpel, maar de kwaliteit van je prompt bepaalt grotendeels de kwaliteit van het antwoord. Een vaag geformuleerde vraag geeft vage resultaten, terwijl een heldere prompt met context en duidelijke verwachtingen veel betere output oplevert. Prompt engineering is de kunst van het bewust vormgeven van je instructies, bijvoorbeeld door voorbeelden te geven, de gewenste toon te specificeren, of complexe taken op te splitsen in kleinere stappen. Steeds meer organisaties ontwikkelen gestandaardiseerde prompt-templates voor terugkerende taken, omdat goede prompts een enorm verschil maken in hoe nuttig AI voor je is.

RAG: Retrieval Augmented Generation

RAG lost een fundamenteel probleem op: een LLM weet alleen wat het tijdens zijn training heeft geleerd en heeft geen toegang tot jouw bedrijfsspecifieke documenten of recente informatie. RAG werkt in twee stappen - eerst wordt relevante informatie opgehaald uit jouw eigen kennisbronnen, en dan wordt die informatie samen met je vraag aan het LLM gegeven zodat het een accuraat antwoord kan formuleren.

Als je bijvoorbeeld vraagt naar jullie thuiswerkbeleid, zoekt een RAG-systeem eerst in je HR-documenten naar relevante passages en geeft die aan het model, dat vervolgens een antwoord formuleert op basis van jullie werkelijke beleid. Je ziet RAG vooral terug in chatbots die antwoorden op basis van productdocumentatie of AI-assistenten die informatie halen uit bedrijfsdatabases.

Leest de intro over RAG – Retrieval Augmented Generation

Fine-tuning

Fine-tuning is het proces waarbij je een bestaand LLM verder traint op jouw specifieke data om het beter te laten presteren voor jouw use case. Het is alsof je een algemeen opgeleide professional neemt en die specialiseert in jouw specifieke domein. In tegenstelling tot RAG, waarbij je het model toegang geeft tot externe informatie, verander je bij fine-tuning het model zelf van binnen. Dit is technisch complexer en duurder dan prompt engineering of RAG, en voor de meeste organisaties niet de eerste keuze. Maar voor scenario's waar je duizenden keren per dag dezelfde taak uitvoert met een specifieke output-stijl, kan fine-tuning efficiënter zijn dan elke keer een lange prompt met instructies meesturen.

MCP: Model Context Protocol

MCP is een open standaard die definieert hoe AI-modellen kunnen communiceren met externe databronnen en tools. Tot nu toe moest iedere ontwikkelaar die een AI-applicatie bouwt opnieuw custom connecties maken naar databases, Gmail, CRM-systemen of andere tools. MCP lost dit op door een gestandaardiseerde manier te bieden waarop AI-modellen met externe bronnen kunnen praten, vergelijkbaar met hoe USB-C het mogelijk maakt dat één kabel werkt met al je apparaten. Dit is nog een relatief nieuwe ontwikkeling, maar het heeft potentie om de manier waarop we AI-assistenten bouwen fundamenteel te veranderen, omdat je niet langer voor elk model en elke tool opnieuw integraties hoeft te bouwen.

Leest de intro over MCP – Model Context Protocol

Tokens

Tokens zijn de bouwstenen waarmee AI-modellen tekst verwerken. Een token is een stukje tekst, vaak een deel van een woord of een enkel woord. Het Engelse woord "understanding" wordt bijvoorbeeld opgesplitst in twee tokens: "understand" en "ing". Waarom is dit relevant? Omdat alles in de AI-wereld in tokens wordt gemeten: de grootte van je context window, de kosten van API-gebruik, en de limieten van wat je kunt vragen. Als een model een context window heeft van 100.000 tokens, betekent dat ongeveer 75.000 woorden. Bij het werken met AI is het handig om een globaal gevoel te hebben voor deze verhouding, vooral wanneer je met lange documenten werkt of API-kosten moet inschatten.

Embeddings

Embeddings zijn een manier om tekst om te zetten in getallen zodat computers ermee kunnen rekenen en vergelijken. Stel je voor dat elk woord of elke zin een plek krijgt in een enorme multidimensionale ruimte, waarbij woorden met vergelijkbare betekenissen dicht bij elkaar staan. Het woord "koning" staat dichtbij "koningin" en "monarch", en ver weg van "tafel" of "pizza". Dit klinkt abstract, maar het is cruciaal voor veel AI-toepassingen. Embeddings worden gebruikt om de semantische gelijkenis tussen teksten te meten, wat essentieel is voor bijvoorbeeld de zoekfunctie in RAG-systemen. Wanneer je vraagt naar "thuiswerkbeleid", gebruikt het systeem embeddings om te bepalen welke documenten semantisch het meest relevant zijn, ook al gebruiken ze misschien andere woorden zoals "remote work policy".

Dit waren de fundamentele termen die je regelmatig tegenkomt in discussies over AI. Elk van deze concepten verdient meer uitleg over hoe het precies werkt en hoe je het praktisch toepast, en daar ga ik de komende weken dieper op in.

Heb je een specifiek concept waar je meer over wilt leren? Of een term die je tegenkomt en die ik niet behandeld heb? Laat het me weten, dan neem ik het mee in de volgende posts.