Er waait een nieuwe wind door Silicon Valley. Tijdens een drukbezochte bijeenkomst bij Stanford liet Sam Altman, de man achter ChatGPT en OpenAI, een bom vallen die de techwereld op zijn kop zette. Niet omdat hij een nieuw product aankondigde, maar omdat hij iets toegaf wat veel mensen al vermoedden: de technologie die de afgelopen jaren de kunstmatige-intelligentierevolutie aandreef, heeft zijn plafond bereikt.
De Transformer-architectuur — het fundament onder ChatGPT, Gemini, Claude en vrijwel elk ander groot taalmodel — is uitgespeeld als motor van verdere vooruitgang. De wet van de schaling, die stelt dat grotere modellen automatisch slimmere modellen zijn, werkt niet meer. En Altman zegt ronduit: er is iets fundamenteel nieuws nodig, iets dat nog geen naam heeft, maar waarvoor de zoektocht al begonnen is.
In dit artikel leggen we uit wat de Transformer-architectuur precies is, waarom deze zijn grenzen bereikt heeft, wat er nu aan de horizon verschijnt, en — misschien wel het belangrijkste — wat dit betekent voor ondernemers, professionals en organisaties in de BeNeLux.
Wat Is de Transformer-architectuur en Waarom Was Het Zo Revolutionair?
Het probleem vóór 2017: AI met een geheugenprobleem
Om te begrijpen waarom de val van de Transformer zo ingrijpend is, moet je eerst begrijpen waarom zijn opkomst zo baanbrekend was. Vóór 2017 werkten kunstmatige-intelligentiesystemen met zogenaamde recurrente neurale netwerken. Die systemen hadden een fundamenteel probleem: ze konden tekst alleen woord voor woord verwerken, als een slecht geconcentreerde lezer die aan het einde van een pagina al vergeten is wat er aan het begin stond.
Stel je voor dat je een roman leest, maar na elke zin verdwijnt je kortetermijngeheugen. Dat was in essentie hoe AI-modellen van vóór 2017 functioneerden. Ze konden geen langetermijnverbanden leggen, geen complexe context vasthouden, en dus ook geen coherente, diepgaande teksten of antwoorden produceren.
De doorbraak: aandacht voor alles tegelijk
In 2017 publiceerde een team van Google-onderzoekers het invloedrijke paper “Attention Is All You Need” — en daarmee werd de Transformer geboren. Het centrale mechanisme is het zogenaamde aandachtsmechanisme (attention mechanism): in plaats van woorden één voor één te verwerken, kan een Transformer alle woorden in een tekst tegelijkertijd bekijken en de onderlinge relaties wegen.
Het was alsof die slecht geconcentreerde lezer plotseling een fotografisch geheugen kreeg. De AI kon nu patronen ontdekken over lange afstanden in tekst, context vasthouden, nuance begrijpen en coherent redeneren. Het resultaat ken je: ChatGPT, Bard, Midjourney, GitHub Copilot — al deze tools draaien op Transformer-varianten.
De wet van de schaling: groter is slimmer
Op de Transformer-revolutie volgde een eenvoudige, maar enorm winstgevende logica: meer data + meer rekenkracht + meer parameters = slimmere AI. Deze zogenaamde wet van de schaling (scaling law) gold jaren als het evangelie van de AI-industrie. Bedrijven pompten miljarden euro’s in steeds grotere datacenters, steeds meer GPU’s, steeds gigantischere modellen.
En het werkte — tot op zekere hoogte. GPT-3 was slimmer dan GPT-2. GPT-4 was een stuk capabeler dan GPT-3. Maar ergens begon de curve af te vlakken. Meer investeren leverde minder extra intelligentie op. De wet van de schaling begon te breken.
Waarom Sam Altman Zegt Dat de Bron Opgedroogd Is
De eerlijke bekentenis van de man die er het meest bij wint
Het is opmerkelijk dat het uitgerekend Altman is die dit toegeeft. Hij is immers de persoon die het meest heeft geprofiteerd van de Transformer-boom. OpenAI is op dit moment een van de meest waardevolle niet-beursgenoteerde bedrijven ter wereld, dankzij precies de technologie waarvan hij nu de beperkingen erkent.
Toch deed hij dat, met een bijna verontrustende rust: er bestaat nog een grote innovatie die ontdekt moet worden, iets zo ingrijpends als de sprong van de oude neurale netwerken naar de Transformers. Met andere woorden: wat we nu hebben, is niet genoeg om echte Artificial General Intelligence (AGI) te bereiken — intelligentie die net zo breed en flexibel is als het menselijk denkvermogen.
De energiehonger maakt opschaling onhoudbaar
Er is ook een praktische reden waarom de Transformer-architectuur op zijn grenzen botst: de onvoorstelbare energiehonger. Moderne grote taalmodellen verbruiken evenveel elektriciteit als kleine steden. Het trainen van GPT-4 kostte naar schatting tientallen miljoenen euro’s aan rekentijd alleen al. En elke nieuwe generatie vraagt exponentieel meer.
Dit is economisch onhoudbaar en ecologisch problematisch. De volgende architectuurgeneratie zal volgens Altman niet alleen slimmer moeten zijn, maar ook drastisch efficiënter — slanker, sneller, en biologisch geïnspireerder dan de huidige benadering met ruwe rekenkracht.
De Zoektocht Naar de Volgende Architectuur: Van Gloeilamp Naar Laser
Een treffende metafoor voor een enorme sprong
Altman gebruikte een krachtige vergelijking om het uit te leggen. De kaars gaf eeuwenlang licht. De gloeilamp veranderde de wereld. Maar je gaat niet naar de maan met gloeilampen — daarvoor heb je een raket, een fundamenteel ander principe nodig. De Transformer is onze gloeilamp. Wat er nu gezocht wordt, is het equivalent van de laser: een technologie die niet gewoon beter is, maar anders van aard.
Niemand weet nog precies hoe die nieuwe architectuur eruit ziet. Er zijn veelbelovende richtingen: neuromorfische chips die de werking van biologische neuronen nabootsen, architecturen gebaseerd op sparse activation (waarbij slechts een deel van het netwerk actief is per taak), of hybride systemen die Transformers combineren met geheel andere rekenparadigma’s.
AI helpt zichzelf te vervangen
Hier wordt het bijna science-fiction: de zoektocht naar de nieuwe architectuur wordt mede uitgevoerd door de AI zelf. Altman bevestigde dat huidige modellen al functioneren als wetenschappelijke assistenten. Ze lezen duizenden papers, kruisen datasets die geen enkel menselijk brein tegelijk kan overzien, en genereren nieuwe hypotheses voor verder onderzoek.
We leven dus in een tijdperk waarin de tool actief helpt zijn eigen opvolger te ontwerpen. GPT-5 of GPT-6 kan wel eens de laatste zijn van de huidige generatie — en tegelijk het instrument waarmee de volgende generatie geboren wordt.
Hoeveel Tijd Heeft De Wereld?
Van twintig jaar naar twee: de versnelling van AI-onderzoek
Historisch gezien duurt een grote technologische architectuursprong tientallen jaren. De overgang van vroege neurale netwerken naar de Transformers vergde ongeveer twintig jaar aan fundamenteel onderzoek. Maar Altman suggereert dat dit ritme radicaal verandert.
Met AI die het onderzoek mede uitvoert, is het denkbaar dat die cyclus van twintig jaar wordt teruggebracht naar twee of drie jaar. Dit betekent dat we binnen dit decennium al kunnen leven in een wereld met een post-Transformer AI-architectuur — een systeem met mogelijkheden die we nu nog niet volledig kunnen voorspellen of wiskundig beschrijven. <div class=”table-responsive”> <table> <thead> <tr> <th>Tijdperk</th> <th>Architectuur</th> <th>Doorbraak</th> <th>Duur</th> </tr> </thead> <tbody> <tr> <td>1980–2010</td> <td>Recurrente netwerken</td> <td>Basispatroonherkenning</td> <td>~30 jaar</td> </tr> <tr> <td>2017–2025</td> <td>Transformer</td> <td>ChatGPT, grote taalmodellen</td> <td>~8 jaar</td> </tr> <tr> <td>2025–?</td> <td>Nieuwe architectuur (onbekend)</td> <td>AGI of nabije equivalent?</td> <td>Geschat 2–5 jaar</td> </tr> </tbody> </table> </div>
De Maatschappelijke Gevolgen: Macht, Leiderschap en de Toekomst van Werk
AI als manager: efficiëntie boven menselijkheid?
Altman raakte tijdens zijn toespraak ook een dieper, maatschappelijk thema aan. Hij voorspelde een toekomst waarin AI niet alleen ondersteunende taken uitvoert, maar actief managementbeslissingen neemt. Denk aan een systeem dat realtime de markt analyseert, personeelsproductiviteit monitort, kostenstructuren optimaliseert — zonder emotionele vooringenomenheid, zonder politieke agenda, met absolute consistentie.
De vraag die hij opriep is scherp: als een AI-systeem aantoonbaar beter presteert dan een menselijke manager of CEO, zullen organisaties dan bereid zijn de controle over te dragen? We waarderen menselijk leiderschap nu om redenen als empathie, intuïtie en visie. Maar wat als die nieuwe architectuur ook dat begint te evenaren?
Wat dit betekent voor Belgische en Nederlandse ondernemers
Voor ondernemers in de BeNeLux is dit geen abstracte filosofische discussie — het is een strategische realiteit. De bedrijven die nu al experimenteren met AI-integratie in hun processen, bouw je een voorsprong op die over vijf jaar moeilijk in te halen valt. Maar tegelijk: wie enkel investeert in het beheersen van de huidige tools (ChatGPT, Copilot, Gemini), loopt het risico te optimaliseren voor een tijdperk dat al voorbijgaat.
Altman stelde het expliciet: de grootste bedrijven van de toekomst zijn niet degenen die AI-modellen bouwen, maar degenen die de nieuwe technologische ruimte benutten om complete bedrijfscategorieën opnieuw uit te vinden. Dat is de kans voor elke ondernemer die nu strategisch nadenkt.
Wat Moet Jij Nu Doen? Praktisch Advies Voor de Overgangsfase
Stap 1: Begrijp waar je staat in het AI-landschap
Voordat je kunt navigeren naar de toekomst, moet je weten waar je nu staat. Gebruik je AI puur reactief — als een slimmere zoekmachine? Of integreer je het al structureel in je werkprocessen, klantcommunicatie of productontwikkeling? Er is een groot verschil tussen AI gebruiken en AI-gereed zijn.
Stap 2: Bouw aan aanpassingsvermogen, niet aan toolbeheersing
In een wereld waar architecturen om de paar jaar veranderen, is de meest waardevolle vaardigheid niet het beheersen van één specifieke tool, maar het snel begrijpen en toepassen van nieuwe systemen. Investeer in AI-geletterdheid: begrijp de principes, de mogelijkheden en de beperkingen — niet slechts de knoppen.
Stap 3: Volg de ontwikkelingen actief
De post-Transformer-race speelt zich nu al af in laboratoria van OpenAI, Google DeepMind, Anthropic en tientallen startups. Volg wetenschappelijke publicaties, technieuwsbronnen en opinieleiders in het AI-veld. Niet om alles te begrijpen, maar om te signaleren wanneer de volgende grote sprong zich aankondigt.
Veelgestelde Vragen (FAQ)
Wat is de Transformer-architectuur precies?
De Transformer is een type neurale netwerkarchitectuur, geïntroduceerd in 2017, die gebruikmaakt van een aandachtsmechanisme. Hierdoor kan het systeem alle woorden in een tekst tegelijk verwerken en onderlinge relaties wegen, in plaats van woord voor woord te werken. Deze aanpak vormt de basis van vrijwel alle moderne grote taalmodellen, zoals ChatGPT, Claude en Gemini.
Waarom zegt Sam Altman dat de Transformer zijn grenzen heeft bereikt?
Altman verwijst naar het verzwakken van de wet van de schaling: de aanname dat grotere modellen automatisch slimmer zijn. Na jarenlang investeren in steeds grotere modellen begint de curve af te vlakken. Meer rekenkracht levert niet langer evenredig meer intelligentie op. Bovendien is de energiehonger van huidige modellen economisch en ecologisch onhoudbaar op de lange termijn.
Wat is de volgende stap na de Transformer?
Dat weet niemand zeker. Altman spreekt over een nog naamloze architectuur die net zo fundamenteel anders moet zijn als de stap van recurrente netwerken naar Transformers. Mogelijke richtingen zijn neuromorfische systemen, spaarse activeringsnetwerken, of hybride architecturen. De zoektocht is actief bezig, mede met behulp van AI zelf.
Wanneer kunnen we de nieuwe architectuur verwachten?
Historisch duurde zulke overgangen tientallen jaren. Maar omdat AI nu zelf helpt bij het onderzoek, schatten experts — waaronder Altman zelf — dat de cyclus kan worden teruggebracht tot twee tot vijf jaar. De volgende architectuurgeneratie kan dus al voor 2030 werkelijkheid zijn.
Wat betekent dit voor mijn gebruik van ChatGPT of andere AI-tools?
Op korte termijn verandert er niets. ChatGPT en soortgelijke tools blijven bruikbaar en worden zelfs verder verbeterd. Maar op middellange termijn zullen er nieuwe systemen komen die fundamenteel anders werken en veel capabeler zijn. Wie nu investeert in AI-begrip en aanpassingsvermogen, staat straks sterk.
Gaat AI ook managementfuncties overnemen?
Altman suggereerde dat dit een reële mogelijkheid is. Als AI-systemen aantoonbaar beter presteren dan mensen in het nemen van datagestuurde beslissingen, zullen organisaties onder druk komen te staan om taken over te dragen. Of dat ook voor strategisch leiderschap geldt, is debatable — maar de discussie is urgent en begint nu al.
Wat is AGI en waarom is dat relevant in dit verhaal?
AGI staat voor Artificial General Intelligence: een AI-systeem dat even breed en flexibel kan denken als een mens, over alle domeinen heen. Altman geeft impliciet toe dat de huidige Transformer-gebaseerde systemen ons daar niet naartoe brengen. De nieuwe architectuur wordt gezien als een noodzakelijke stap richting dat doel.
Moeten Belgische en Nederlandse bedrijven zich nu anders positioneren?
Ja, maar niet in paniek. De boodschap van Altman is niet “stop met wat je doet”, maar “begrijp dat het tijdperk verandert”. Voor BeNeLux-ondernemers betekent dit: gebruik AI nu actief in je processen, bouw AI-geletterdheid op in je team, en houd de strategische horizon in het oog. De bedrijven die vandaag leren navigeren, staan morgen het sterkst.
Conclusie: We Leven in het Interregnum
We bevinden ons in wat historici een interregnum noemen: de overgangsperiode tussen het einde van een tijdperk en het begin van het volgende. De Transformer heeft ons hier gebracht. Hij heeft ons laten zien wat mogelijk is — van geautomatiseerde teksten tot medische diagnoses, van coderen tot creatief ontwerpen. Maar hij is niet de eindbestemming.
Sam Altman’s boodschap is helder: wie denkt dat hij “bij” is omdat hij ChatGPT beheerst, optimaliseert voor een voorbijgaand tijdperk. De volgende revolutie wordt niet gebouwd op grotere modellen, maar op een fundamenteel andere manier van denken over intelligentie en rekenkracht.
Voor ondernemers, professionals en organisaties in de BeNeLux is de oproep eenvoudig: blijf leren, blijf aanpassen, en wees bereid je aannames over AI los te laten zodra de volgende architectuurgeneratie zijn intrede doet. Die dag komt sneller dan de meesten verwachten.
Meta Description: Sam Altman bevestigt: de Transformer-architectuur heeft zijn grenzen bereikt. Wat komt erna en wat betekent dit voor jouw bedrijf? Lees het hier. (157 tekens)