AI Nieuws

AI die zichzelf verbetert klinkt eng, zo werkt het echt

· 5 min leestijd

Het is een zin die je deze maanden steeds vaker hoort: AI-systemen zijn dag en nacht bezig zichzelf te verbeteren. Bij de ene persoon klinkt dat hoopvol (sneller vooruitgang!), bij de ander klinkt het apocalyptisch (straks hebben ze ons niet meer nodig). De waarheid zit er tussenin, maar is wel fascinerend. Wat gebeurt er precies, en hoe serieus moet je het nemen?

Wat "zichzelf verbeteren" concreet betekent

In de praktijk gaat het niet om een AI die in zijn eigen broncode duikt en plotseling slimmer wordt. Dat klinkt als sciencefiction en is het voorlopig ook. Wat er wel gebeurt: AI-labs laten hun modellen meewerken aan het trainen van nieuwe versies. Claude helpt dataset opbouwen. GPT genereert oefenvragen voor GPT's opvolger. Deze systemen zijn nu goed genoeg om echt nuttig te zijn in hun eigen ontwikkeling.

Denk aan een schaakcomputer die miljoenen partijen tegen zichzelf speelt om beter te worden. Dat trucje werkt voor schaak, omdat "beter" daar duidelijk is: gewonnen of verloren. Voor taalmodellen is dat lastiger. Wat is "beter" antwoorden? Dat vraagt menselijke beoordelaars, of slimme proxy-metrics.

Waar het al werkt

Zelf-evaluatie is een duidelijk voorbeeld. Moderne modellen kunnen redelijk goed beoordelen of een ander model een goed antwoord heeft gegeven. Die inzichten gebruiken de labs om betere trainingsdata te maken. Het werkt niet perfect, maar het schaalt veel beter dan per voorbeeld een menselijke beoordelaar inhuren.

Ook synthetische data komt hier uit voort. GPT-4 wordt ingezet om leervoorbeelden te genereren waarop GPT-5 wordt getraind. Het klinkt als een soort incest, en is dat technisch ook, maar onder controle werkt het.

Waar het nog niet werkt

Een model dat totaal nieuwe wetenschap ontdekt en zichzelf daarmee fundamenteel beter maakt? Nee. Wat we in publicaties zien van DeepMind (AlphaProof voor wiskunde bijvoorbeeld) of Anthropic is indrukwekkend, maar telkens in een nauw domein. De stap naar een systeem dat autonoom aan zijn eigen architectuur werkt, is nog niet gezet.

Belangrijker: de snelheid waarmee modellen beter worden, lijkt af te vlakken. GPT-4 was een reusachtige sprong vergeleken met GPT-3. Opus 4.7 is beter dan 4.6, maar niet met ordergroottes. De exponentiele curve die sommigen voorspelden laat voorlopig op zich wachten.

Waarom mensen er toch nerveus van worden

De angst voor zelf-verbeterende AI heeft een naam in onderzoekskringen: recursieve zelf-verbetering. Het scenario is dat een model op een punt komt waarop het zijn volgende versie kan trainen zonder menselijke input, en dat die versie dit nog beter kan, en zo verder. Dan gaat het snel.

Hoe realistisch is dat? Onderzoekers zijn het er niet over eens. Wat wel zeker is: grote labs zoals Anthropic, OpenAI en DeepMind investeren serieus in veiligheidsmaatregelen rond dit scenario. Recente releases hebben expliciet veiligheidsmechanismen tegen ongewenst gedrag. Zie ons artikel over Anthropic's Project Glasswing voor hoe dat er in de praktijk uitziet.

Wat dit betekent voor jou

Praktisch gezien: niks dramatisch vandaag. Modellen worden stap voor stap beter, en die verbeteringen komen mede door AI-geassisteerd trainen. Je merkt het vooral aan de kwaliteit van antwoorden: die is sneller omhoog gegaan dan menselijke aandacht alleen ooit had kunnen produceren.

Voor het middellange verhaal: hoe modellen worden getraind wordt een steeds belangrijker onderwerp voor regelgevers. De EU AI Act raakt hier al aan, en de komende jaren zullen er scherpere eisen komen. Voor onafhankelijke analyses over hoe groot AI-labs hun modellen trainen, zie The Gradient, een van de betere bronnen hierover.

Een voorspelling

Mijn persoonlijke gok: we zien in 2026-2027 een periode van consolidatie in AI-kwaliteit, niet van acceleratie. De modellen worden beter in de concrete zaken (code, redeneren, Nederlandstalige nuances) maar de grote sprongen worden zeldzamer. Tegelijk wordt AI in allerlei producten verweven op een manier die onze ervaring ingrijpender verandert dan de volgende benchmark-sprong. De echte revolutie zit niet in slimmere modellen, maar in wat je ermee doet.

Michael Groeneweg
Geschreven door Michael Groeneweg AI-consultant bij Digital Impact en oprichter van UnicornAI.nl

Michael is AI-consultant bij Digital Impact in Rotterdam en oprichter van UnicornAI.nl, waar hij AI-oplossingen en SaaS-integraties bouwt voor bedrijven. Al tien jaar ondernemer, en sinds een paar jaar weigert hij iets te doen waar geen AI in verweven zit, zakelijk noch prive, tot mild ongenoegen van zijn omgeving. Zijn reizen door de wereld zijn inmiddels een serie experimenten in wat AI wel en niet kan vanaf een terrasje in Lissabon of een treinstation in Tokio. Hij test obsessief nieuwe tools, bouwt oplossingen voor klanten, en vindt dat niemand de hype moet geloven, maar ook niemand meer kan doen alsof AI niet alles verandert. Houdt van goede koffie, lange vluchten en mensen die met AI bouwen in plaats van er alleen over praten.