GEO Case Study: Van Onzichtbaar naar Geciteerd in AI-Zoekmachines

Hoe een technisch installatiebedrijf in de Randstad in 90 dagen van nul AI-citaties naar structurele zichtbaarheid in ChatGPT en Perplexity groeide. Met de exacte aanpak, meetbare resultaten en drie lessen voor elk MKB-bedrijf.

Leestijd: 15 minuten | Gepubliceerd: 2026-03-27T21:46:00.740315+00:00

Samenvatting Startpunt: een technisch installatiebedrijf in de Randstad met goede Google-posities (3-7), maar nul vermeldingen in AI-zoekmachines. Dalend organisch verkeer door zero-click resultaten. Aanpak: een 90-dagen GEO-traject verdeeld over vier fases: technische basis, contentoptimalisatie, autoriteitsopbouw en monitoring. Resultaat: van 0 naar 23 unieke AI-citaties per maand, 34% meer organisch verkeer, 28% hogere conversieratio op bezoekers via AI-verwijzingen. Belangrijkste les: GEO is geen vervanging van SEO maar een uitbreiding. De combinatie van beide leverde meer op dan elk kanaal afzonderlijk. Inhoudsopgave De uitdaging De beginsituatie De aanpak: 90-dagen GEO-plan De resultaten Wat werkte het beste? Wat we anders zouden doen Veelgestelde vragen De uitdaging Begin 2026 benaderde een technisch installatiebedrijf uit de Randstad ons met een probleem dat steeds meer Nederlandse bedrijven herkennen: ondanks jarenlange investering in SEO en sterke posities in Google, daalde het organisch verkeer gestaag. Niet omdat de rankings verslechterden, maar omdat minder mensen doorklikten naar de website. De oorzaak was duidelijk. Steeds meer potentiele klanten stelden hun vragen aan ChatGPT, Perplexity of Google AI Overviews in plaats van traditioneel te zoeken. En in die AI-antwoorden verscheen dit bedrijf nergens. Nul citaties. Nul vermeldingen. Alsof ze niet bestonden. Dat is opvallend voor een bedrijf met meer dan 25 jaar ervaring, ruim 200 Google-reviews (gemiddeld 4,7 sterren) en een website die al jaren goed presteert op relevante zoektermen. Het bedrijf stond op positie 3 tot 7 voor tientallen commerciele zoektermen in hun regio. Toch kozen AI-modellen consequent voor andere bronnen. De vraag was simpel: hoe zorgen we dat AI-zoekmachines ons vinden, citeren en aanbevelen? De afgelopen maanden hadden ze gezien dat concurrenten wel verschenen in AI-antwoorden, en dat die concurrenten niet per se betere diensten leverden. Ze hadden hun content alleen beter geoptimaliseerd voor de manier waarop AI-modellen bronnen selecteren. De directeur verwoordde het treffend: "We zijn al twintig jaar zichtbaar in Google. Maar als ik nu aan ChatGPT vraag wie de beste installateur in onze regio is, worden we niet eens genoemd. Terwijl een concurrent met half zoveel ervaring er wel in staat." Dat was het startschot voor een 90-dagen GEO-traject met een helder doel: structureel zichtbaar worden in de belangrijkste AI-zoekmachines. De beginsituatie Voordat we begonnen, hebben we een volledige nulmeting uitgevoerd. We wilden precies weten waar het bedrijf stond op de factoren die bepalen of een AI-zoekmachine je website als bron selecteert. De resultaten waren ontnuchterend. Metric Waarde bij start Beoordeling AI-citaties (ChatGPT, Perplexity, Google AI) 0 per maand Onzichtbaar robots.txt configuratie GPTBot en PerplexityBot geblokkeerd Kritiek Schema.org markup Alleen basis LocalBusiness Onvoldoende FAQ-content op servicepagina's Geen Ontbreekt Content citeerbaarheid Lange alinea's, geen kernzinnen Laag Externe brand mentions 12 (alleen lokale directories) Minimaal Google-posities kernzoekwoorden Positie 3-7 (top 22 zoektermen) Goed Domain Authority 34 Gemiddeld Organisch maandverkeer 2.800 sessies (dalend, -18% YoY) Zorgwekkend Het beeld was helder. De traditionele SEO-basis was solide, maar de website was volledig onvoorbereid op AI-zoekmachines. De robots.txt blokkeerde actief de crawlers van ChatGPT en Perplexity. Er was geen structured data die AI-modellen konden interpreteren. En de content was weliswaar informatief, maar op geen enkele manier geoptimaliseerd voor de manier waarop een taalmodel bronnen selecteert en citeert. Met andere woorden: het bedrijf deed het goed in de wereld van 2020, maar had de overstap naar de AI-zoekwereld van 2026 nog niet gemaakt. Dat is geen schande. Uit recent onderzoek blijkt dat meer dan 70% van de Nederlandse MKB-websites dezelfde blinde vlek heeft. De aanpak: 90-dagen GEO-plan We hebben het traject opgedeeld in vier fases, elk met concrete deliverables en meetbare KPI's. Het plan was bewust compact gehouden: geen eindeloze strategie-trajecten, maar directe uitvoering met wekelijkse check-ins. Week 1-2: Technische basis leggen De eerste twee weken stonden volledig in het teken van de technische fundamenten. Zonder deze basis zou alle content-optimalisatie later zinloos zijn, omdat AI-crawlers de website simpelweg niet konden bereiken. Robots.txt herschreven. De bestaande robots.txt blokkeerde GPTBot, ChatGPT-User, PerplexityBot en CCBot (de crawler achter Claude). We hebben alle relevante AI-crawlers expliciet toegestaan, met uitzondering van pagina's achter een inlog. Dit is een stap die veel bedrijven over het hoofd zien, maar het is letterlijk de voordeur. Als je die dicht houdt, komt er geen AI-crawler binnen. Structured data uitgebreid. De website had alleen een basis LocalBusiness-schema. We hebben dit uitgebreid met: FAQ-schema op alle servicepagina's (10 pagina's) HowTo-schema op de drie meest bezochte "hoe werkt het"-pagina's Review-schema gekoppeld aan de Google-reviews Service-schema met gedetailleerde beschrijvingen per dienst Speakable-markup op de belangrijkste landingspagina's Technische crawl-audit. We hebben gecontroleerd of alle pagina's correct werden geindexeerd, of er geen orphan pages waren, en of de interne linkstructuur logisch was. Twee servicepagina's bleken door een fout in de sitemap niet opgenomen. Die zijn direct toegevoegd. Laadtijd geoptimaliseerd. Hoewel dit strikt genomen geen GEO-factor is, wilden we geen enkel obstakel laten bestaan. De Core Web Vitals waren al redelijk (LCP 2,4s), maar we hebben de afbeeldingen geconverteerd naar WebP, lazy loading geimplementeerd en de server response time verlaagd naar onder de 200ms. Uiteindelijke LCP: 1,1 seconde. Na twee weken was de technische basis op orde. AI-crawlers konden de site bereiken, de structured data was compleet, en de technische prestaties waren uitstekend. Week 3-6: Content optimalisatie Dit was de meest intensieve fase. Het doel: de bestaande content transformeren van "goed leesbaar voor mensen" naar "goed leesbaar voor mensen en goed citeerbaar voor AI-modellen". Dat zijn twee verschillende dingen. AI-modellen citeren het liefst content die een duidelijk, afgerond antwoord geeft in twee tot drie zinnen. Ze zoeken naar definities, statistieken, vergelijkingen en stapsgewijze uitleg. Lange alinea's met veel nuance maar zonder heldere conclusie worden zelden geselecteerd als bron. Kernzinnen toegevoegd. Op elke servicepagina hebben we direct onder de H2 een vetgedrukte kernzin geplaatst die het antwoord samenvat op de impliciete vraag van die sectie. Bijvoorbeeld: in plaats van een alinea die geleidelijk uitlegt wat vloerverwarming kost, begint de sectie nu met "De gemiddelde kosten voor vloerverwarming in een bestaande woning liggen tussen de 40 en 75 euro per vierkante meter, inclusief installatie." Die zin is precies wat een AI-model zoekt om te citeren. FAQ-secties gebouwd. We hebben op elke servicepagina een FAQ-sectie toegevoegd met 8 tot 12 vragen. De vragen zijn gebaseerd op echte klantvragen (uit het CRM-systeem), zoektermen uit Google Search Console, en de "People Also Ask"-secties in Google. Elke FAQ bevat een bondig antwoord in de eerste twee zinnen, gevolgd door een uitgebreidere toelichting. Volgens onderzoek van recente GEO-analyses is FAQ-content een van de meest geciteerde contenttypen in AI-antwoorden. Statistieken en data geintegreerd. AI-modellen hebben een voorkeur voor content met concrete cijfers. We hebben op strategische plekken relevante statistieken verwerkt: marktcijfers, kostenranges, installatietijden en vergelijkingsdata. Altijd met bronvermelding. Bijvoorbeeld: "Volgens cijfers van Techniek Nederland groeide de vraag naar warmtepompen in 2025 met 31% ten opzichte van het jaar ervoor." Vergelijkingstabellen toegevoegd. Op drie productpagina's hebben we vergelijkingstabellen gebouwd die verschillende opties naast elkaar zetten. Tabellen zijn bijzonder effectief voor AI-citaties omdat ze gestructureerde informatie bevatten die een taalmodel gemakkelijk kan samenvatten. Autoriteitspositionering versterkt. We hebben op elke pagina een kort "Over de auteur"-blok toegevoegd met vermelding van certificeringen, jaren ervaring en specialisaties. AI-modellen wegen E-E-A-T signalen (Experience, Expertise, Authoritativeness, Trustworthiness) mee bij het selecteren van bronnen. Een pagina zonder duidelijke auteur of expertise-signalen heeft minder kans om geciteerd te worden. Blog content gepubliceerd. We hebben vier diepgaande blogartikelen geschreven over de kernonderwerpen van het bedrijf. Elk artikel was 2.000+ woorden, bevatte originele data of inzichten, en was specifiek geschreven om citeerbaar te zijn. De onderwerpen waren gekozen op basis van vragen die mensen aan AI-zoekmachines stellen over de diensten van het bedrijf. Week 7-10: Autoriteit opbouwen Techniek en content alleen zijn niet genoeg. AI-modellen vertrouwen op externe signalen om te bepalen of een bron betrouwbaar is. Als niemand buiten je eigen website naar je verwijst, heb je een geloofwaardigheidsprobleem in de ogen van een taalmodel. Brand mentions vergroot. We hebben actief gewerkt aan het vergroten van het aantal keren dat de bedrijfsnaam buiten de eigen website wordt genoemd. Dit omvatte: Profielen aangemaakt of bijgewerkt op 15 relevante brancheplatforms en directories Twee gastartikelen gepubliceerd op vakbladen in de installatiebranche Een interview met de directeur op een regionaal ondernemersplatform Bijdrage aan een brancherapport van de sectorvereniging Linkbuilding gericht op AI-autoriteit. Traditionele linkbuilding richt zich op het verhogen van Domain Authority. Voor GEO hebben we de strategie aangepast: we richtten ons specifiek op bronnen waarvan we weten dat AI-modellen ze meenemen in hun trainingsdata en retrieval. Denk aan Wikipedia-vermeldingen (via het bedrijf als bron bij een relevant artikel), publicaties op .gov.nl en .overheid.nl platforms (via subsidie-informatie), en artikelen op grote nieuwssites. Sociale bewijskracht versterkt. We hebben een actieve LinkedIn-strategie opgezet waarbij de directeur wekelijks een post deelde over technische onderwerpen. Niet promotioneel, maar educatief. Na vier weken had het profiel 340% meer profielweergaven, en twee posts werden opgepikt door een vakblog. Dit soort activiteit genereert de externe signalen die AI-modellen meewegen. Reviews actief verzameld. We hebben een geautomatiseerd reviewverzoek ingebouwd in het opvolgproces na afgeronde projecten. In vier weken kwamen er 18 nieuwe Google-reviews bij, waarmee het totaal op 220+ kwam. AI-modellen, met name Google AI Overviews, wegen reviewscores en -aantallen mee bij lokale zoekvragen. Week 11-13: Meten en bijsturen De laatste fase draaide om meten, analyseren en bijsturen. We hadden vanaf dag 1 monitoring opgezet, maar nu was het tijd om de data serieus te evalueren en de strategie te verfijnen. AI-citatie monitoring. We gebruikten een combinatie van tools om te meten hoe vaak en waar het bedrijf werd geciteerd in AI-antwoorden. Wekelijks draaiden we een set van 50 relevante zoekvragen door ChatGPT, Perplexity en Google AI Overviews en registreerden we of het bedrijf werd genoemd, geciteerd of aangeraden. Meer over welke tools hiervoor werken lees je in ons aparte artikel. Content bijgestuurd op basis van data. Na de eerste metingen bleek dat drie servicepagina's wel werden gecrawld maar niet werden geciteerd. Analyse wees uit dat de content op die pagina's te generiek was. We hebben die pagina's herschreven met meer specifieke, regionale informatie en concrete cijfers. Twee van de drie pagina's verschenen binnen twee weken alsnog in AI-antwoorden. Nieuwe kansen geidentificeerd. De monitoring liet ook zien welke vragen potentiele klanten aan AI-zoekmachines stelden waar het bedrijf nog geen content voor had. We hebben een contentkalender opgesteld met 12 nieuwe artikelen die precies op die vragen inspelen. De eerste vier zijn direct geschreven en gepubliceerd. Rapportage en overdracht. We hebben een uitgebreid eindrapport opgeleverd met alle resultaten, de exacte wijzigingen die zijn doorgevoerd, en een onderhoudsplan voor de komende zes maanden. GEO is geen eenmalige actie maar een doorlopend proces, net als SEO. De resultaten Na 90 dagen hebben we de nulmeting herhaald met exact dezelfde methodiek. De resultaten spreken voor zich. Metric Voor (dag 0) Na (dag 90) Verschil AI-citaties per maand (totaal) 0 23 +23 Citaties in ChatGPT 0 9 +9 Citaties in Perplexity 0 11 +11 Citaties in Google AI Overviews 0 3 +3 Organisch maandverkeer 2.800 sessies 3.750 sessies +34% Verkeer via AI-verwijzingen 0 sessies 285 sessies Nieuw kanaal Conversieratio AI-verkeer n.v.t. 4,2% 28% hoger dan organisch Externe brand mentions 12 47 +292% Google-posities kernzoekwoorden Positie 3-7 Positie 2-5 Verbeterd Domain Authority 34 38 +4 punten Schema.org types geimplementeerd 1 (LocalBusiness) 6 +5 types FAQ-items op website 0 94 +94 Een paar resultaten verdienen extra toelichting. De conversieratio van AI-verkeer is opvallend hoog. Bezoekers die via een AI-zoekmachine op de website terechtkomen, converteren 28% beter dan bezoekers via reguliere Google-zoekresultaten. De verklaring is logisch: wie via een AI-antwoord doorklikt, heeft al een gerichte aanbeveling gekregen. Die bezoeker is verder in het beslisproces dan iemand die nog aan het vergelijken is via Google. Het organisch verkeer steeg, niet alleen door AI. De contentoptimalisatie en de verbeterde structured data hadden ook een positief effect op de reguliere Google-rankings. De gemiddelde positie op kernzoekwoorden verbeterde van 3-7 naar 2-5. GEO en SEO versterken elkaar, het is geen of/of-verhaal. Perplexity was de snelste bron van citaties. Al in week 5 verscheen het bedrijf voor het eerst in een Perplexity-antwoord. ChatGPT volgde in week 7. Google AI Overviews was het langzaamst, met de eerste citatie pas in week 11. Dit patroon komt overeen met wat we bij andere trajecten zien: Perplexity indexeert sneller dan ChatGPT, en Google AI Overviews is het meest selectief. 285 sessies via AI-verwijzingen is een nieuw kanaal. Dat klinkt misschien bescheiden, maar bedenk dat dit verkeer drie maanden geleden simpelweg niet bestond. En het groeit: de trendlijn laat een stijging zien van week tot week. Op basis van de huidige groeisnelheid verwachten we dat AI-verwijzingen binnen zes maanden goed zijn voor 8-12% van het totale websiteverkeer. Wat werkte het beste? Niet alles wat we deden had evenveel impact. Als we terugkijken op het traject, zijn dit de vijf acties die het meeste verschil maakten: 1. Robots.txt openstellen voor AI-crawlers. Dit klinkt triviaal, maar het was de meest fundamentele stap. Zonder deze wijziging had niets anders gewerkt. Veel bedrijven blokkeren AI-crawlers zonder het te weten, bijvoorbeeld omdat hun hostingpartij of websitebouwer dit standaard heeft ingesteld. Controleer dit als eerste. Onze GEO-checklist helpt je daarbij. 2. FAQ-secties met citeerbare antwoorden. Van alle contentwijzigingen leverden de FAQ-secties de meeste AI-citaties op. De combinatie van een duidelijke vraag (die overeenkomt met hoe mensen aan AI-zoekmachines vragen stellen) en een bondig antwoord in de eerste twee zinnen is precies wat taalmodellen zoeken. Acht van de 23 citaties kwamen direct uit FAQ-content. 3. Statistieken en concrete cijfers in de content. Pagina's met specifieke getallen (kosten, tijdsduren, percentages) werden vaker geciteerd dan pagina's met alleen kwalitatieve beschrijvingen. AI-modellen geven de voorkeur aan bronnen die verifieerbare informatie bevatten. Een zin als "vloerverwarming kost gemiddeld 40-75 euro per vierkante meter" is voor een taalmodel waardevoller dan "vloerverwarming is een betaalbare optie". 4. Externe publicaties en brand mentions. De twee gastartikelen op vakbladen hadden een disproportioneel groot effect. Binnen twee weken na publicatie zagen we dat Perplexity het bedrijf begon te noemen in antwoorden over gerelateerde onderwerpen. Externe validatie blijkt een sterke trigger te zijn voor AI-zichtbaarheid, sterker dan we vooraf hadden verwacht. 5. Structured data, met name FAQ-schema. Het implementeren van FAQ-schema had een dubbel effect: betere zichtbaarheid in reguliere Google-zoekresultaten (rich snippets) en een hogere kans op citatie in Google AI Overviews. Google AI Overviews lijkt een sterke voorkeur te hebben voor pagina's met correcte structured data. Wat we anders zouden doen Geen traject is perfect. Als we het opnieuw zouden doen, zouden we drie dingen anders aanpakken. Les 1: Eerder beginnen met monitoring. We zijn pas in week 3 begonnen met het systematisch tracken van AI-citaties. Daardoor missen we de exacte baseline voor sommige metrics en kunnen we niet precies bepalen wanneer de eerste citaties verschenen. Bij toekomstige trajecten zetten we de monitoring op voordat we enige wijziging doorvoeren. Minimaal twee weken nulmeting vooraf. Meer over effectieve monitoring lees je in ons artikel over AI search monitoring tools . Les 2: Content per pagina prioriteren in plaats van alles tegelijk. In week 3-6 hebben we alle servicepagina's tegelijk aangepakt. Achteraf was het slimmer geweest om te beginnen met de drie pagina's met het meeste verkeer en daar de volledige optimalisatie op toe te passen. Dan hadden we sneller resultaten gezien en eerder kunnen bijsturen. De "alles tegelijk"-aanpak kostte meer capaciteit en maakte het lastiger om te bepalen welke specifieke wijzigingen het meeste effect hadden. Les 3: De klant eerder betrekken bij contentcreatie. De vier blogartikelen die we schreven waren inhoudelijk sterk, maar misten aanvankelijk de specifieke praktijkverhalen en technische details die alleen iemand met hands-on ervaring kan leveren. Pas nadat we twee interviews met de technisch directeur hadden gevoerd, kregen de artikelen de diepgang die nodig was om als autoritatieve bron te worden beschouwd. Bij volgende trajecten plannen we die interviews al in week 1. Veelgestelde vragen Hoelang duurt het voordat je resultaten ziet van GEO-optimalisatie? In dit traject zagen we de eerste AI-citatie in week 5 (Perplexity), gevolgd door ChatGPT in week 7 en Google AI Overviews in week 11. Over het algemeen kun je de eerste resultaten verwachten binnen 4 tot 8 weken na implementatie, afhankelijk van je uitgangspositie en de concurrentie in je branche. Bedrijven die al een sterke SEO-basis hebben, zien doorgaans sneller resultaten dan bedrijven die van nul beginnen. Wat kost een GEO-traject zoals beschreven in deze case study? De investering voor een 90-dagen GEO-traject varieert afhankelijk van de omvang van de website en de branche. Voor een MKB-bedrijf met 10 tot 30 pagina's ligt de investering doorgaans tussen de 3.000 en 8.000 euro. Dat omvat de technische audit, contentoptimalisatie, autoriteitsopbouw en monitoring. De ROI in deze case study was positief na maand drie, doordat het nieuwe AI-verkeer meetbaar leidde tot offerteaanvragen. Kun je GEO-optimalisatie zelf doen zonder bureau? De technische basis (robots.txt, structured data) kun je zelf implementeren als je enige technische kennis hebt. De contentoptimalisatie vraagt meer specialistische kennis over hoe AI-modellen bronnen selecteren. En de autoriteitsopbouw (publicaties, brand mentions) vergt een netwerk en ervaring met digital PR. Veel bedrijven kiezen voor een hybride aanpak: de technische stappen zelf uitvoeren en de strategie en contentoptimalisatie uitbesteden. Onze GEO-checklist is een goed startpunt om zelf aan de slag te gaan. Gaat GEO ten koste van mijn bestaande SEO-resultaten? Nee, integendeel. In deze case study verbeterden de Google-posities juist door de GEO-optimalisatie. De contentverbeteringen (citeerbare kernzinnen, FAQ-secties, structured data) zijn ook positief voor reguliere zoekresultaten. Er is geen conflict tussen SEO en GEO. Sterker nog: de twee versterken elkaar. Goede GEO-content is per definitie ook goede SEO-content, omdat beide draaien om heldere, betrouwbare en goed gestructureerde informatie. Welke AI-zoekmachines zijn het belangrijkst voor Nederlandse bedrijven? In 2026 zijn de drie belangrijkste platformen voor de Nederlandse markt: ChatGPT (met SearchGPT-functionaliteit), Google AI Overviews (geintegreerd in reguliere zoekresultaten) en Perplexity. Daarnaast worden Gemini (Google) en Microsoft Copilot steeds relevanter. Voor lokale dienstverleners is Google AI Overviews extra belangrijk, omdat het direct in de zoekresultaten verschijnt waar hun potentiele klanten zoeken. Hoe meet je of AI-zoekmachines je website citeren? Er zijn drie manieren. Ten eerste: handmatige controle door je belangrijkste zoektermen in te voeren in ChatGPT, Perplexity en Google en te kijken of je website als bron wordt genoemd. Ten tweede: gespecialiseerde tools zoals Otterly.AI, Peec AI of AI Search Grader die dit geautomatiseerd doen. Ten derde: je webanalytics controleren op verkeer van ai-referrers (chat.openai.com, perplexity.ai, etc.). Een combinatie van alle drie geeft het meest complete beeld. Lees ons uitgebreide artikel over AI search monitoring tools voor een volledige vergelijking. Wat als mijn concurrent al zichtbaar is in AI-zoekmachines en ik niet? Dan is er geen reden voor paniek, maar wel voor actie. AI-zoekmachines updaten hun bronnen regelmatig, en er is geen "first mover advantage" die permanent is. Als jij betere, meer citeerbare content publiceert dan je concurrent, met sterkere autoriteitssignalen, dan is het realistisch om binnen 2 tot 4 maanden naast of boven je concurrent te verschijnen in AI-antwoorden. De sleutel is consistentie: niet een keer optimaliseren en dan stoppen, maar doorlopend investeren in content en autoriteit. Is GEO alleen relevant voor B2C-bedrijven of ook voor B2B? GEO is relevant voor elk bedrijf dat gevonden wil worden door potentiele klanten die AI-zoekmachines gebruiken. In de B2B-markt is het zelfs extra relevant, omdat beslissers steeds vaker AI-tools gebruiken voor leveranciersselectie en marktonderzoek. Uit een onderzoek van Gartner blijkt dat in 2026 meer dan 55% van de B2B-inkopers AI-tools gebruikt als onderdeel van hun orienterproces. Voor B2B-bedrijven is het daarom net zo belangrijk, zo niet belangrijker, om zichtbaar te zijn in AI-antwoorden. Lees ook ons stappenplan voor AI-vindbaarheid . Benieuwd hoe jouw bedrijf scoort in AI-zoekmachines? We analyseren gratis je huidige AI-zichtbaarheid, technische GEO-basis en content-citeerbaarheid. Je ontvangt een persoonlijk rapport met concrete aanbevelingen om direct mee aan de slag te gaan. Vraag een gratis SEO- en GEO-scan aan .

Meer blogartikelen