Hoe de nieuwste AI werkt, van NLP naar ML en LLM

Blog  — za. 2 mei 2026

Dit is het laatste deel van wat inmiddels een kleine serie is geworden. Het stoort me dat er nog altijd veel misverstanden bestaan over AI. Daarom hierbij de laatste schakel in de "black box" die moderne AI voor veel mensen lijkt te zijn.

Had je deel één en twee nog niet gelezen? Begin daar dan eerst:

  1. Hoe media zoals NOS en anderen een overdreven beeld van AI neerzetten
  2. Hoe AI werkt in de praktijk: van mensentaal naar softwarelogica

En dan nu deel drie; het laatste deel. Voorlopig.

Nu komen we aan bij het punt waar de bekendste AI-systemen zich momenteel bevinden. Let wel, de meeste AI die vandaag in de praktijk gebruikt wordt is helemaal niet dit soort AI, en daar is een goede reden voor.

Toch zit juist hier het deel dat voor veel mensen het moeilijkst te begrijpen is, ML, oftewel Machine Learning, en LLM's, Large Language Models. Daarbij horen ook transformers, grote context-machines die enorme hoeveelheden tekst verwerken. Bekende voorbeelden hiervan zijn ChatGPT, DeepSeek en vele andere systemen.

Wat deze generatie AI zo ongrijpbaar maakt is dat er enorm veel data gebruikt wordt, samen met gigantische hoeveelheden berekeningen, om menselijke taal te begrijpen en zelfstandig antwoorden te genereren.

Wederom niet stuurloos

Maar laat er geen twijfel over bestaan dat zulke systemen stevig in toom gehouden worden. Daarmee bedoel ik vooral de formulering en het gedrag van de AI. De trainingsdata zelf wordt ingewikkelder. Moderne modellen leren namelijk van enorme verzamelingen tekst, vaak afkomstig van boeken, websites, documentatie en andere publieke bronnen. Dáár kan de schoen wringen als men niet voorzichtig blijft.

Je zou bijna kunnen zeggen dat systemen zoals ChatGPT ontworpen waren om mensen omver te blazen met een groot wauw-moment. En dat lukte ook. Dat effect werd bereikt door gigantische hoeveelheden data te gebruiken en de AI zoveel mogelijk zelfstandig taal te laten genereren. Het resultaat is een soort superkennisbank die jouw taal spreekt.

Maar daar zit ook een nadeel aan. Controle wordt veel moeilijker naarmate de schaal groter wordt. Zowel de trainingsdata als de antwoorden zijn niet meer volledig handmatig te controleren. Het gaat simpelweg om te veel informatie voor mensen om nog volledig te overzien. Daarom verschuift de rol van programmeurs steeds vaker richting begeleiding en controle van modellen, in plaats van alles handmatig programmeren zoals vroeger.

Dat maakt deze systemen indrukwekkende gesprekspartners, maar nog geen vakspecialisten die je blind kunt vertrouwen. Het was een enorm wauw-moment toen deze generatie AI verscheen, maar inmiddels beginnen ook de eerste scheuren zichtbaar te worden in de zorgvuldigheid en praktische toepasbaarheid binnen specifieke vakgebieden. Een LLM is meestal geen specialist, maar eerder een "jack of all trades, master of none". In zekere zin het tegenovergestelde van een strak afgebakende NLP-oplossing die ontworpen is voor één specifieke taak.

Het blijft ook dit keer slechts wiskunde

En dát is waar het "black box"-gevoel vandaan komt. Je hoeft geen techneut te zijn om te merken dat sommige antwoorden twijfelachtig zijn, of dat de hulp nét niet aansluit op wat je bedoelde. Toch ervaren veel gebruikers nog altijd het Eliza-effect, het gevoel dat een systeem meer begrijpt dan werkelijk het geval is. Programmeurs daarentegen ervaren vaak juist het Weizenbaum-effect, waarbij je de mechaniek achter de illusie begint te zien.

Daar komen praktische problemen nog bovenop, zoals hallucinaties, beperkte contextvensters en kwaliteitsverlies bij langere gesprekken. Dat zijn echte technische beperkingen waar nog volop onderzoek naar gedaan wordt. Sommige daarvan zullen waarschijnlijk verbeteren, andere blijven mogelijk altijd een uitdaging.

Dat maakt deze technologie niet slecht. Integendeel, het blijft een enorme stap vooruit. Vergeet ook niet dat moderne ML- en LLM-systemen nog steeds leunen op klassieke NLP-technieken voor bepaalde onderdelen, zoals tokenisatie, classificatie, embeddings, entity recognition en tool-aansturing.

Maar het is gewoon nét niet de "holy grail" die sommigen erin wilden zien. Het is geen AGI, Artificial General Intelligence, in de betekenis van een alleswetende kunstmatige superintelligentie. Die term wordt tegenwoordig juist gebruikt omdat de huidige generatie AI de oorspronkelijke term "AI" grotendeels heeft opgeëist, terwijl de meeste experts erkennen dat echte AGI nog niet bereikt is.

Hoe het gemaakt en gebruikt wordt maakt het verschil

Moeten we ML- en LLM-systemen dan inzetten als huisarts bij medische klachten? Nee, absoluut niet. Dat kan ronduit gevaarlijk zijn. Kunnen NLP-systemen daarbij helpen? Tot op zekere hoogte wel. Zowel klassieke NLP als streng gecontroleerde ML- en LLM-systemen kunnen prettig communiceren met gebruikers. Een traditioneel NLP-systeem is bovendien veel strakker te beheersen, waardoor het eenvoudiger is om alleen gecontroleerde informatie terug te geven in plaats van hallucinaties of foutieve feiten.

Maar uiteindelijk blijven het hulpmiddelen. Geen arts die je bloeddruk meet, je lichamelijk onderzoekt en op basis van opleiding en ervaring een diagnose stelt. NLP, ML en LLM kunnen jou niet echt zien, niet controleren en niet volledig meewegen wat in jouw specifieke situatie relevant is.

Het probleem is dus niet AI zelf. Het probleem is hoe mensen AI toepassen en gebruiken. We hoeven niet bang te zijn voor AI, net zomin als mensen ooit bang hadden hoeven zijn voor de stoomtrein. Maar we moeten wel gezond verstand blijven gebruiken. Als gebruiker, als bedrijf dat AI-oplossingen afneemt, en boven alles als ontwikkelaar en leverancier van AI-systemen. Want met expertise komt verantwoordelijkheid.