Jasper haalde in oktober 2022 125 miljoen dollar op tegen een waardering van 1,5 miljard dollar. Het product was een vriendelijke interface bovenop OpenAI’s GPT-3, verkocht aan marketeers en contentmakers die niet rechtstreeks prompts wilden schrijven. Zes weken nadat die ronde was afgerond, lanceerde OpenAI ChatGPT, waarmee de wereld gratis een vriendelijke interface bovenop GPT-3 kreeg. Binnen negen maanden had Jasper personeel ontslagen, zijn interne waardering verlaagd en begon het bedrijf weg te bewegen van het brede publiek van makers waarop het was gebouwd. De CEO deed niet alsof het iets anders was. ChatGPT, schreef hij, “hertekende het landschap van de sector”.
Wanneer je leverancier jouw product gratis lanceert, ontdek je wat je moat, je verdedigbare concurrentievoordeel, werkelijk was.
Dat verhaal herhaalt zich. Copy.ai, Writesonic, tientallen “AI voor X”-tools die kapitaal ophaalden op de belofte van een verdedigbare niche bovenop de API van iemand anders. De meeste zijn nu kleiner, nauwer gefocust of opgeslokt.
Er zijn twee manieren waarop de leverancier je kan doden. Hij kan je product rechtstreeks aanbieden. Of hij kan de prijs van de input laten dalen totdat jouw marge belachelijk lijkt.
In januari 2025 bracht DeepSeek, een Chinees lab, R1 uit: een model dat dicht in de buurt kwam van OpenAI’s frontier reasoning, tegen een fractie van de kosten. De CEO van OpenAI erkende publiekelijk dat R1 20 tot 50 keer goedkoper draaide dan het equivalente OpenAI-model. Nvidia’s aandeel kelderde. Wat volgde was het luidste jaar van API-prijsverlagingen dat de sector had gezien, waarbij DeepSeek, Anthropic, Google en OpenAI in 2025 herhaaldelijk de prijzen verlaagden.
In theorie zouden goedkopere API’s elk bedrijf moeten helpen dat erop is gebouwd. In de praktijk gebeurde het tegenovergestelde. Wanneer klanten ongeveer kunnen zien wat een API-call kost, betalen ze geen 10x opslag voor een dunne laag erbovenop. De inputkosten van de wrapper daalden. Zijn prijszettingsmacht daalde sneller. En naarmate de onderliggende modellen capabeler werden, werd “ik gebruik gewoon ChatGPT rechtstreeks” een steeds beter antwoord op wat de wrapper ook probeerde op te lossen. Marges, vaak 20 tot 40% op een goede dag, werden richting nul gedrukt.
Stel je de partnermeeting voor bij een middelgroot fonds ergens midden in dit proces. De helft van de AI-portefeuille bestaat uit wrappers. De discussie is niet langer: “hoe redden we deze bedrijven?” Het is iets ongemakkelijkers: waarin hebben we eigenlijk geïnvesteerd?
Het model is het product
Waar je product het zwaarst van afhankelijk is, dat is wat je eigenlijk verkoopt. Een startup met zeldzame medische beelddata en een generiek AI-model verkoopt de data. Het model is uitwisselbaar. Ze kunnen het volgende maand vervangen en de klant zou het niet merken. Maar een startup met openbare data en een slimme prompt verkoopt eigenlijk het model zelf, aangekleed. Het model is het product, zelfs als de oprichter het zo niet wil noemen.
Als het model je product is en je huurt het, dan huur je je product. Als de huur stijgt, daalt je marge. Als de verhuurder een concurrerende huurder lanceert, concurreer je met je eigen leverancier.
Dat is platformrisico, en het is vandaag het meest ondergewaardeerde onderdeel binnen de categorie AI-startups.
Het risico van de compute-wrapper
Het gesprek over AI-wrappers stopt bij de modellaag. Dat zou niet moeten.
Een startup die “zijn infrastructuur bezit” door H100’s te huren bij AWS of Azure is een compute-wrapper. De cloudprovider huurt van Nvidia. Nvidia is afhankelijk van TSMC. Op elke laag kan iemand boven je de prijs veranderen, de voorwaarden wijzigen of bepalen of je überhaupt chips krijgt, en de laag eronder moet de klap opvangen.
Dit is niet binair. Er is een spectrum. Aan de ene kant staat een pure wrapper die een logo en een inlogscherm toevoegt. Aan de andere kant staat een bedrijf dat zoveel rondom het model heeft gebouwd, zoals eigen data, gespecialiseerde workflows en diepe klantintegratie, dat het model één verwisselbare input onder vele wordt. De compute-laag kent hetzelfde spectrum. Compute huren is geen doodvonnis. De vraag is hoe blootgesteld je bent, en wat je eromheen hebt gebouwd dat zou overleven als de huurvoorwaarden morgen veranderen.
De meeste pitchdecks stellen deze vraag vandaag op geen enkele laag. Ze zouden haar op elke laag moeten stellen.
De rekensom
Eén H100-klasse server, het soort machine dat je zou gebruiken om een serieus open-sourcemodel in productie te draaien, kost 15.000 tot 40.000 dollar. Een 7B-parametermodel op die hardware draaien tegen 70% benutting kost all-in ongeveer 10.300 dollar per jaar. Dezelfde workload op een hosted API loopt bij enig betekenisvol volume op tot honderden duizenden dollars.
Volgens Lenovo’s analyse uit 2026 kan on-premises tot 18x goedkoper zijn per miljoen tokens dan hosted API’s voor stabiele inference, met een terugverdientijd van minder dan vier maanden voor workloads met hoge benutting.
Dat soort besparing was vroeger een financiële optimalisatie. In een AI-bedrijf is het het verschil tussen brutomarge hebben en die niet hebben.
En de gehuurde versie wordt duurder, niet goedkoper. In november 2025 vertelde Nvidia’s CFO aan investeerders dat de clouds zijn uitverkocht en dat elke GPU die ze hebben verscheept in gebruik is. Levertijden voor datacenter-GPU’s lopen op tot 36 tot 52 weken. De prijs van de geheugenchips in deze servers verdrievoudigde bijna in drie maanden aan het einde van 2025. Je kunt er in 2026 niet van uitgaan dat je jezelf uit een capaciteitsprobleem kunt huren.
Maar een GPU bezitten is ook geen moat
Dit alles pleit sterk voor het bezitten van je compute. Verwar dat alleen niet met het hebben van een moat.
Er zijn op dit moment bedrijven die investeringsrondes ophalen op basis van “we bezitten onze compute”, en dat alleen is geen verdedigbare positie. Een concurrent met een creditcard en een API-key kan je binnen een week evenaren.
De moat is nooit de hardware. De moat is wat die hardware je laat bouwen dat anderen niet gemakkelijk kunnen kopiëren:
• Een model getraind op data waar niemand anders legaal of praktisch toegang toe kan krijgen
• Kosten per request die zo laag zijn dat je klanten kunt bedienen die je met venturegeld gefinancierde concurrenten niet winstgevend kunnen bedienen
• Snelheid of betrouwbaarheid die een feature wordt die je klant niet uit een generieke API kan halen
• Een regulatoire positie, zoals EU-dataresidentie, zorgcompliance of defensiegoedkeuring, waarbij de architectuur de kwalificatie is
Hardware kan een vereiste zijn voor deze moats. Een data-moat heeft niet per se eigen hardware nodig. Een kostenmoat vrijwel zeker wel.
Voor de meeste SaaS-bedrijven ligt het echte hefboompunt niet bij hardware. Het ligt bij data. Specifieker: data die het bedrijf al heeft via zijn product, en die concurrenten niet legaal of praktisch kunnen verkrijgen. AI-features bouwen bovenop die data is het verschil tussen een feature toevoegen die iedereen kan kopiëren en iets creëren dat elke maand moeilijker te repliceren wordt. Dit is het werk dat mijn team bij Wise Minds doet met SaaS-scale-ups: bestaande data en workflows omzetten in AI-features die cumulatief sterker worden. Als je product echte gebruikers en echte data heeft, en je voelt druk om “iets met AI te doen”, dan is de eerste vraag niet welk model je moet gebruiken. Het is welk deel van je data niemand anders heeft, en welke AI-feature zonder die data niet zou bestaan.
Waarom dit in Europa belangrijker is
Het verhaal van compute-schaarste is wereldwijd. Een oprichter in San Francisco heeft te maken met dezelfde levertijden als een oprichter in Berlijn.
Wat specifiek Europees is, is de soevereiniteitslaag erbovenop.
Als je Europese startup EU-klantdata verwerkt via een model dat wordt gehost door een Amerikaanse provider, op chips waarvan de export wordt gecontroleerd door Amerikaans beleid, dan heb je drie punten van buitenlandse controle in je stack voordat je überhaupt het GDPR-gesprek opent. De Europese Commissie financiert een netwerk van AI Gigafactories, waarvan elke fabriek naar verwachting ongeveer 100.000 state-of-the-art AI-chips zal huisvesten. De grootste Amerikaanse AI-labs opereren met ordes van grootte meer compute dan dit bij elkaar. De kloof is minder belangrijk voor één specifieke startup dan voor wat ze signaleert: Europa concurreert om computecapaciteit die het nog niet heeft, met leveranciers die het niet controleert.
Voor Europese oprichters is dit niet abstract. Het is het verschil tussen het winnen van een gereguleerde enterprise-klant en een beleefd “nee” krijgen omdat de architectuur niet door hun compliance-review komt.
De nieuwe diligence-vraag
Dit is leveranciersmacht. Porter schreef er decennia geleden al over. Wanneer leveranciers geconcentreerd zijn, wanneer hun inputs cruciaal zijn, wanneer overstappen moeilijk is, wanneer ze je markt kunnen betreden en je concurrent kunnen worden, worden marges samengedrukt en wordt strategie van buiten het gebouw bepaald.
Dat is de AI-stack op dit moment. Een handvol modelproviders. Een handvol cloudproviders. Eén dominante chipleverancier. OpenAI dat Custom GPT’s lanceert, is het schoolvoorbeeld van een leverancier die de markt van zijn klanten binnenstapt.
De diligence-vraag is simpelweg leveranciersmacht, eerlijk benoemd:
Wat gebeurt er met dit bedrijf als het platform waarvan het afhankelijk is de regels verandert?
Als het antwoord is: “we zouden binnen 90 dagen ernstig in de problemen zitten”, dan kijk je naar een wrapper, ongeacht op welke laag die zit.
Voor oprichters is dezelfde vraag, aan jezelf gesteld:
- Maak een lijst van elke externe afhankelijkheid in je stack: modelprovider, compute, hosting, distributie, datatoegang.
- Schrijf voor elk daarvan: “Als [afhankelijkheid] morgen zijn prijs zou verdubbelen, zouden we…”
- Schrijf voor elk daarvan: “Als [afhankelijkheid] morgen een concurrerend product zou lanceren, zouden we…”
- De antwoorden zonder goede reactie zijn geen risico’s. Het zijn timers.
Kortom
Hetzelfde dat deze bedrijven mogelijk maakte, goedkope en toegankelijke intelligentie op één API-call afstand, maakte ze ook inwisselbaar. De bedrijven die in 2028 nog overeind staan, zijn de bedrijven die het wrapper-tijdperk hebben gebruikt om iets te bouwen dat de leverancier niet kan kopiëren en niet kan onderbieden.
De investeerders die dat als eerste doorhebben, zullen hun thesis in de komende twee kwartalen herschrijven. De oprichters die dat als eerste doorhebben, zullen nog steeds een bedrijf hebben.

