Marketeers verschillen van mening over de vraag of het vastpinnen van koppen in Google Ads beter is dan het niet vastpinnen. Een veelgenoemd voordeel is dat vastgepinde koppen meer controle bieden en voorkomt dat Google ongebruikelijke combinaties toont. Tegelijkertijd zien andere adverteerders dit juist als een nadeel, omdat het vastzetten van koppen de ruimte beperkt voor het algoritme van Google om de meest effectieve combinaties te bepalen. Om te achterhalen welke aanpak beter presteert, heeft MondoMarketing twee experimenten uitgevoerd binnen Google Ads. Deze experimenten maken deel uit van een bredere strategie gericht op Google-optimalisatie, waarbij is onderzocht of het wel of niet vastpinnen van koppen leidt tot betere campagneresultaten. Benieuwd of het vastpinnen van RSA-koppen verschil maakt voor campagneprestaties? Lees dan snel verder!
Welk type experiment is opgezet?
Voordat uitgelegd wordt, welk Google experiment is opgezet, is het eerst belangrijk om te begrijpen welke verschillende typen experimenten beschikbaar zijn. De volgende opties zijn beschikbaar:
Type experiment | Uitleg experiment |
Advertentievarianten (Ad variations) | Een advertentievarianten experiment is gericht op het testen van verschillende advertentievarianten binnen dezelfde campagne, zoals koppen, beschrijvingen of CTA’s. Het helpt je de beste versie te vinden op basis van klikfrequentie (CTR), conversies of andere metrics, zonder grote veranderingen in je campagne aan te brengen. |
Aangepast experiment (Custom Experiment) | Een aangepast experiment laat je twee versies van een campagne vergelijken door veranderingen, zoals biedstrategieën of advertenties, te testen. Je bepaalt zelf hoe het verkeer wordt verdeeld (bijvoorbeeld 50/50). Dit experiment is ideaal om specifieke wijzigingen te testen en te ontdekken welke het beste presteert. |
Performance Max-experimenten | Performance Max-experimenten bieden de mogelijkheid om te testen hoe verschillende instellingen, zoals doelstellingen, budgetten en doelgroepen, de prestaties van een campagne beïnvloeden. Door gebruik te maken van machine learning, optimaliseren deze experimenten advertenties over meerdere netwerken, waaronder YouTube, Gmail en Search, met als doel de conversieresultaten te verbeteren. |
Video-experimenten | Video-experimenten stellen adverteerders in staat om verschillende videoadvertenties, doelgroepen en biedstrategieën binnen een YouTube-campagne te testen. Ze helpen bepalen welke videoformaten, lengtes of doelgroepen het beste presteren, bijvoorbeeld of een korte video beter is dan een langere. |
Experiment voor het genereren van vraag (Demand Generation Experiment) | Demand Generation Experiment test campagnes die de vraag naar een product of dienst vergroten door merkbekendheid en interesse te stimuleren. Het helpt adverteerders te ontdekken welke advertenties en targeting het beste werken voor het aantrekken van nieuwe klanten. |
App-experimenten (App Campaign Experiments) | App-experimenten testen verschillende instellingen voor app-installatie- of engagementcampagnes, zoals doelgroepen, biedstrategieën en advertenties. Ze helpen om meer app-installaties of herhaald gebruik te krijgen. |
Om te testen hoe het wel of niet vastpinnen van RSA-koppen de campagneprestaties beïnvloedt, is gekozen voor een aangepast Google experiment. Dit type experiment maakt het mogelijk om wijzigingen, zoals het vastpinnen van koppen, te testen en de prestaties van twee campagnevarianten direct met elkaar te vergelijken. Binnen een aangepast experiment worden zowel een controlecampagne als een experimentele campagne opgezet, waardoor Google geen automatische aanpassingen doorvoert die de testresultaten kunnen beïnvloeden.
Daarnaast kan de adverteerder bij een aangepast Google experiment zelf bepalen hoe het verkeer tussen de twee campagnes wordt verdeeld. Om een zuiver en eerlijk resultaat te krijgen, is het experiment zo ingesteld dat het verkeer 50/50 wordt verdeeld. Hierdoor krijgen beide versies evenveel kans om te presteren, wat zorgt voor betrouwbaardere inzichten in de impact van vastgepinde versus niet-vastgepinde koppen. Binnen Google optimalisatie is het cruciaal om tests zorgvuldig op te zetten, zodat de verkregen inzichten daadwerkelijk bijdragen aan beter presterende advertentiecampagnes.
Wat is van belang bij de opzet van het experiment?
Bij de opzet van een Google experiment zijn de volgende drie zaken van belang:
- De looptijd van het Google experiment
- Geen wijzigingen doorvoeren tijdens het Google experiment
- Voldoende dataverzameling van het Google experiment
De looptijd van een Google experiment is echter niet alleen bij aangepaste experimenten van belang, maar bij alle typen experimenten in Google Ads. Om betrouwbare en significante testresultaten te verkrijgen, is het cruciaal dat elk Google experiment (zoals aangepaste experimenten, advertentievarianten, Performance Max-, video-, app- en Demand Generation experimenten) voldoende lang loopt.
Google raadt aan om een Google experiment minstens vier weken te laten lopen, afhankelijk van het aantal conversies en de hoeveelheid verkeer. Een te korte looptijd kan leiden tot onbetrouwbare of toevallige resultaten. Daarom is het belangrijk om vooraf te bepalen hoelang het experiment moet duren om statistisch significante conclusies te kunnen trekken. In Google Ads kan een aangepast experiment maximaal 12 weken duren (84 dagen / 3mnd). Doorgaans geldt hoe meer data er beschikbaar is de test minder lang dient te draaien.
Daarnaast is het essentieel om tijdens het experiment geen wijzigingen door te voeren in de campagnes. Aanpassingen in budgetten, targeting of advertentieteksten kunnen de resultaten beïnvloeden, waardoor het experiment wordt beinvloed en je niet meer kan pinpointen waardoor het resultaat exact is beinvloed. Door de campagnes gedurende de gehele testperiode ongewijzigd te laten, zorg je ervoor dat de resultaten daadwerkelijk inzicht geven in het effect van vastgepinde versus niet-vastgepinde koppen.
Vervolgens is het ook belangrijk dat er voldoende gegevens worden verzameld, zoals klikken, vertoningen en conversies. Een te kleine dataset kan de testresultaten vertekenen door toevallige fluctuaties in de cijfers. Wanneer de steekproef te klein is, is de kans groot dat de resultaten niet als significant worden beschouwd, waardoor het effect van de testvariaties niet betrouwbaar kan worden vastgesteld. Binnen Google optimalisatie speelt dataverzameling een cruciale rol, omdat het helpt om onderbouwde beslissingen te nemen en advertentiecampagnes op basis van echte prestaties te optimaliseren.
Hoe is het experiment opgezet?
Bij twee accounts is een aangepast Google-experiment opgezet in Google Ads om de impact van het vastpinnen van RSA-koppen (Responsive Search Ads) te testen.
- Casus 1: In dit Google-experiment had de controlecampagne geen vastgepinde koppen, terwijl de experimentele campagne koppen wel waren vastgepind. In de controlecampagne was kop 1 vastgepind voor zoekwoorden, kop 2 vastgepind voor een USP en kop 3 vastgepind voor de merknaam. In de experimentele variant kon Google de koppen vrij combineren.
- Casus 2: Dit Google-experiment was het omgekeerde van casus 1. De controlecampagne had vastgepinde koppen (kop 1: zoekwoorden, kop 2: USP, kop 3: merknaam), terwijl in de experimentele campagne de koppen niet waren vastgepind, waardoor Google vrij was om combinaties te maken.
Om te bepalen hoeveel data nodig is voor een betrouwbaar Google-experiment, hebben we de tool “AB Testguide” gebruikt. Deze tool helpt bij het berekenen van het aantal vertoningen, klikken en conversies dat nodig is om tot een statistisch significant experiment te komen. De tool kijkt naar het aantal bezoekers en conversies (of klikken) in de originele campagne en berekent vervolgens welke stijging nodig is om een significant resultaat te behalen. Dit betekent dat de waarde “Aantal verwachte conversies controlecampagne” in de afbeelding hieronder ook gebruikt kan worden om het aantal verwachte klikken te berekenen.
Bij het opzetten van een Google experiment is het essentieel om een beoordelingscriterium te kiezen waarop de prestaties worden geëvalueerd. In dit geval hebben we gekozen voor ‘klikken’ als primaire prestatie-indicator. Dit betekent dat het experiment beoordeeld werd op basis van het aantal gegenereerde klikken en niet op andere metrics zoals conversies of vertoningen. Het voordeel van deze aanpak is dat klikken een directe indicator zijn van engagement met de advertentie, wat helpt bij het beoordelen van de effectiviteit van vastgepinde versus niet-vastgepinde koppen.
In dit aangepaste experiment wordt verwacht dat advertenties zonder vastgepinde koppen beter presteren aan de hand van het aantal klikken. Doordat Google de vrijheid heeft om koppen dynamisch te combineren, kunnen relevantere varianten worden getoond aan verschillende gebruikers. Dit zou moeten resulteren in een hogere betrokkenheid en meer klikken. Op basis van eerdere ervaringen bij vergelijkbare testen geldt dat bij een dataset van minimaal 1.000 klikken een verschil van 5% tot 7% in het aantal klikken tussen de controlecampagne en de experimentele campagne moet kunnen worden behaald.
Casus 1: testperiode berekenen Google experiment
De afbeelding uit Google Ads (hieronder) laat zien hoeveel resultaten de campagne per maand oplevert. Om ervoor te zorgen dat de test betrouwbaar is, is gekozen voor een maximale looptijd van 84 dagen (ongeveer 3 maanden). Dit is ook de langste periode waarin een experiment binnen Google Ads mag lopen.
De berekeningen laten zien dat na 3 maanden in totaal 57.000 vertoningen gegenereerd zijn voor het experiment (19.000 vertoningen per maand × 3 maanden = 57.000 vertoningen). Dit aantal omvat zowel de originele campagne als de testvariant. De campagne krijgt per maand ongeveer 1.100 klikken, wat na 3 maanden neerkomt op 3.300 klikken. Omdat het experiment de campagne splitst in een test- en controlegroep, wordt dit aantal verdeeld over beide groepen. Dit betekent dat elke groep na 3 maanden 28.500 vertoningen en 1.650 klikken heeft.
Uit de afbeelding ‘AB Testguide’ blijkt dat er na 3 maanden minimaal een stijging van 6% nodig is om een statistisch significant resultaat te behalen. Als de test korter zou duren, bijvoorbeeld 1 maand, zouden er minder vertoningen en klikken zijn. Hierdoor is een veel grotere stijging nodig om tot een statistisch betrouwbaar resultaat te komen. Daarom komen we in dit geval uit op een testperiode van 3 maanden. Dit zorgt ervoor dat er genoeg data is om duidelijke en betrouwbare conclusies te trekken.
Case 1: resultaat Google experiment
Uit de resultaten van casus 1 blijkt dat het vastpinnen van de koppen een negatieve impact had op de prestaties. De onderstaande afbeelding laat zien dat het aantal klikken van de experimentele campagne (vastgepinde koppen) met 10,9% is gedaald ten opzichte van de variant zonder vastgepinde koppen (controlecampagne), een verschil dat statistisch significant is.
Daarnaast nam het aantal vertoningen van de experimentele campagne af met 10,6%. Dit duidt erop dat de advertenties met vastgepinde koppen minder vaak werden weergegeven. Een mogelijke verklaring hiervoor is dat Google op basis van de zoekopdracht de voorkeur gaf aan de controlecampagne, waarin koppen niet vastgepind waren. Doordat Google daar vrij was in het combineren van koppen, kon Google beter inspelen op de zoekintentie van de gebruiker. Hierdoor werd de controlecampagne vaker vertoond, wat ten koste ging van de zichtbaarheid van de testvariant (experimentele campagne) met vastgepinde koppen.
Bovendien daalde de Click-Through Rate (CTR) licht met 0,02%, terwijl de kosten 8,2% lager uitvielen. Hoewel dat op het eerste gezicht positief lijkt, ging dit gepaard met een daling in klikken en vertoningen, wat de algehele zichtbaarheid en interactie negatief beïnvloedde. Deze resultaten laten zien dat het vastpinnen van koppen in dit experiment leidde tot slechtere prestaties. Het lijkt erop dat niet-vastgepinde koppen in de controlecampagne beter aansloot op de zoekopdrachten, wat heeft bijgedragen aan een hogere betrokkenheid.
Casus 2: testperiode berekenen Google experiment
In deze casus is er ook gekozen voor een maximale looptijd van 3 maanden om voldoende data te verzamelen. Met een gemiddeld aantal van 27.000 vertoningen per maand betekent dit dat de campagne in totaal 81.000 vertoningen zal behalen (27.000 × 3 = 81.000). Dit omvat zowel de originele als de testvariant van de campagne en zorgt voor betrouwbare testresultaten.
Daarnaast genereert de campagne ongeveer 1.700 klikken per maand, wat na 3 maanden neerkomt op 5.100 klikken. Omdat het experiment de campagne opsplitst in een controle- en een testgroep, wordt dit aantal verdeeld over beide groepen. Dit betekent dat elke groep na 3 maanden 40.500 vertoningen en 2.550 klikken heeft.
Uit de afbeelding ‘AB Testguide’ blijkt dat er na 3 maanden minimaal een stijging van 5% nodig is om een statistisch significant resultaat te behalen. Bij een kortere testperiode, zouden er minder vertoningen en klikken zijn. Hierdoor zou een veel grotere stijging nodig zijn om een statistisch betrouwbaar resultaat te behalen.
Case 2: resultaat van het Google experiment
Uit de resultaten van casus 2 blijkt dat het verschil tussen de controle- en experimentele campagne minimaal was. Bij de onderstaande afbeeldingen is te zien dat het aantal klikken in de experimentele campagne slechts met 0,1% is toegenomen, terwijl het aantal vertoningen met 0,6% steeg ten opzichte van de controlecampagne. Tegelijkertijd namen de kosten met 0,7% toe, en bleef de Click-Through Rate (CTR) vrijwel gelijk. De meest opvallende verandering is echter de daling in conversiewaarde van 34%.
Het verschil in klikken is niet statistisch significant, dat betekent dat de verschillen tussen de twee varianten te klein waren om een duidelijke conclusie te trekken. Omdat er geen overtuigend bewijs is dat de experimentele campagne (niet-vastgepinde koppen) beter presteert in aantal klikken dan de controlecampagne (vastgepinde koppen), kan het experiment uiteindelijk niet op deze KPI worden afgerekend.
Dit benadrukt het belang van voldoende dataverzameling binnen Google optimalisatie. Kleine schommelingen in de resultaten kunnen misleidend zijn als er niet genoeg data beschikbaar is of als de testperiode te kort is. In dit aangepaste experiment is bewust gekozen voor een optimale looptijd om betrouwbare resultaten te verkrijgen. Ondanks de juiste testduur was de uiteindelijk verzamelde dataset niet groot genoeg om een statistisch significant verschil in het aantal klikken vast te stellen. Om beter te kunnen bepalen of vastgepinde koppen een positief effect hebben op de prestaties, zou het experiment herhaald moeten worden met een grotere dataset. Dit zou zorgen voor betrouwbaardere inzichten en een beter onderbouwde beslissing over de effectiviteit van vastgepinde versus niet-vastgepinde koppen.
Conclusie
De experimenten uitgevoerd door MondoMarketing tonen aan dat het effect van vastgepinde versus niet-vastgepinde koppen in Responsive Search Ads sterk kan verschillen per campagne. In casus 1 leidde het vastpinnen van koppen tot een duidelijke prestatievermindering: het aantal klikken in de experimentele campagne daalde met 10,9% en het aantal vertoningen met 10,6%, wat statistisch significant is. Google gaf in dit geval de voorkeur aan de controlecampagne zonder vastgepinde koppen, omdat het algoritme meer vrijheid had om kopcombinaties te tonen die beter aansloten op de zoekintentie van de gebruiker.
In casus 2 was het verschil tussen beide varianten minimaal en niet statistisch significant. Hoewel bij de experimentele campagne het aantal klikken licht steeg (+0,1%) en de vertoningen toenamen (+0,6%), daalde de conversiewaarde met maar liefst 34% ten opzichte van de controlecampagne. Doordat het verschil in klikken kleiner was dan de grens voor statistische significantie, kunnen er geen harde conclusies getrokken worden over de effectiviteit van vastpinnen van RSA-koppen. Op basis van eerdere ervaringen van MondoMarketing geldt dat bij een dataset van minimaal 1.000 klikken een verschil van 5% tot 7% tussen de test- en controlecampagne als statistisch significant wordt beschouwd. In casus 1 werd dit verschil ruimschoots behaald. Daarentegen bleef in casus 2 het verschil ruim onder deze drempel, waardoor dit resultaat niet als betrouwbaar kan worden gezien.
Deze uitkomsten benadrukken het belang van voldoende dataverzameling en een zorgvuldige testopzet binnen Google optimalisatie. Zelfs met een maximale looptijd van drie maanden is het essentieel om voldoende klikken en vertoningen te verzamelen. Gezien de prestaties van advertenties sterk kunnen verschillen per campagne, is het aan te raden om altijd per account een eigen experiment op te zetten. Alleen op die manier kan op basis van betrouwbare data worden bepaald of het vastpinnen van koppen daadwerkelijk bijdraagt aan betere campagneresultaten.
Bron header-afbeelding: Tint Media/Shutterstock.com