Categorie archief: Zoekmachine

seo tools

Veel voorkomende SEO fouten

SEO staat voor Search Engine Optimalisation (zoekmachine optimalisatie). Dit is een online marketing strategie welke ervoor zorgt dat website hoog in de zoekresultaten worden weergegeven. Internet gebruikers vertrouwen de informatie die op de eerste pagina staat vaak meer dan de daarna volgende. Los van wanneer zij opzoek zijn naar een speciale website welke al bekend is bij hen zullen zij vertrouwen op de eerste zoek resultaten.

Geen onderzoek gedaan naar zoekwoorden:
Het internet wordt voornamelijk gevoed door zoekwoorden. Afhankelijk van de niche zijn er verschillende zoekwoorden welke de doelgroep zullen gebruiken. Het toepassen van zoekmachine optimalisatie zonder onderzoek naar de juiste zoekwoorden kan resulteren in een website die niet goed wordt opgenomen door de zoekmachine, en ook niet de juiste bezoekers ontvangt.

Code gebruikt die niet goed kan worden geïndexeerd:
Zoekmachines hebben bepaalde spiders over het web lopen welke jouw website scannen. Wanneer een spider door bijv grote afbeeldingen, zware javascripts of door Flash animaties de site niet goed kan doorzoeken zal deze ook niet worden geïndexeerd.

Lage kwaliteit backlinks:
Om je site hoger in de zoekmachines te plaatsen is het ook van belang dat je zogenaamde backlinks creëert. Deze backlinks zijn links vanaf externe website’s naar de jouwe toe. Wanneer deze links niet van hoge kwaliteit zijn (denk aan een website met een Google penalty of website’s waar veel spam op staat) zal de zogenaamde geloofwaardigheid van je website dalen en zullen zoekmachines jouw website lager in de resultaten weergeven.

Teveel focussen op de zoekmachines in plaats van de bezoekers:
Een goede zoekmachine strategie zal veel verkeer generen, maar deze bezoekers zullen niet lang op je website blijven, dit komt omdat ze niet de juiste informatie kunnen vinden, of omdat zij via een zoekwoord zijn gekomen welke niet op jouw website past maar je wel op optimaliseert. Probeer de bezoekers altijd door te sluizen naar een tweede pagina, het bouncepercentage wordt dan aanzienlijk lager en (indien je gebruik maakt van Google Analytics) je ranking beter.

Update je website tijdig:
Probeer elke dag nieuwe content toe te voegen aan je website. We leven in een wereld waar informatie leidend is, probeer daarom ook zoveel mogelijk informatie op je website te plaatsen. Dit kun je doen door een forum (de gebruiker maakt zelf zijn content), een wiki (je koppelt content aan elkaar) of een blog (je plaatst relevante berichten welke gericht zijn op je doelgroep).

Top pagina’s bovenaan:
Het is belangrijk om je toppagina’s (zoals bijv je home, of productpagina) bovenaan in de zoekmachine te hebben. Niemand hoeft je disclaimer of algemene voorwaaden te zien.

Scrapebox link exchange

Blog Comments

Blog comments is ook een manier om backlinks te verkrijgen. Het zijn niet meteen de meest krachtige backlinks, maar het heeft wel zijn waarde.
Als je erin slaagt om blogs te vinden die een hoge Pagerank hebben, dan zijn deze links natuurlijk van waarde voor jou website.
En er is een techniek waarmee je blogs kunt vinden met hoge PR waar jij je comment inclusief backlink kunt achterlaten. Eerst even nog snel de Pro’s & Contra’s van blog comments.

Pro’s:
– Er zijn veel blogs
– Het is eenvoudig om een backlink te krijgen via een blog
Contra’s
– Het zijn niet de meest krachtige backlinks
– Je enkel & alleen maar focussen op blog comments gaan je geen toppositie geven in Google. Het is wel goed als je backlinks verzameld op blogs (diversiteit in je backlinks inclusief IP-adressen) maar het is zeker niet mijn meest geavanceerde & favoriete linkbuilding techniek.

Er is een functie in Google namelijk “Google Blogs” waarmee je zeer makkelijk verschillende blogs in kaart kunt brengen.

En verder is er ook nog eens SCRAPEBOX.
Dit is software waarmee je automatisch blogs kunt vinden, er automatisch een blog comment en een backlink op kunt achterlaten. Moge het duidelijk zijn dat je hiermee enorm veel werk uitspaart.

Ik gebruik Scrapebox ook, maar ik gebruik het meer als “indexing tool”. Wanneer je de module over indexering nog eens leest / bekijkt, dan zal de informatie beter landen. Wanneer ik aan linkbuilding doe door bv. artikelen te schrijven (of laten schrijven) op artikelwebsites, press releases, web 2.0, fora, … dan gebruik ik scrapebox om automatisch op blogs een comment achter te laten & de link die ik gebruik in deze blog comment, zal ik niet automatisch naar mijn webpagina laten doorverwijzen die ik probeer hoog te ranken in Google.

Ik stuur ze naar andere pagina’s die op hun beurt linken naar mijn site! Je bouwt gewoon een tussenlaag in.
Je kunt er ook voor opteren om de links via scrapebox automatisch naar jouw website te laten linken, maar na uitvoerende testen vind ik de resultaten beter wanneer je een tussenlaag inbouwt.

Door het op deze manier te doen, ga je merken dat de tussenlaag sneller gevonden & geïndexeerd door Google gaat worden, want Google houdt van binnenkomende links & op die manier gaan ook jouw links op deze pagina’s geïndexeerd worden.
Je kunt er ook voor opteren om rechtstreeks je links van scrapebox naar je pagina te sturen die jij hoog wilt laten ranken in Google. En ik ga je nu laten zien hoe je kwalitatieve blogpagina’s opzoekt & hoe je daar een backlink op kunt plaatsen. Je gebruikt deze url: google.com/blogsearch zoek hier naar blogs dit in jou markt bevinden.

Wat je moet doen is het volgende:

  • Lees het artikel & geef een goede reactie. Voeg waarde toe aan het artikel. Als de moderator opmerkt dat je enkel & alleen een reactie achterlaat om een backlink te verkrijgen, zal je reactie in 99% van de gevallen niet goedgekeurd worden.
  • Je kunt in het comment gedeelte je backlink verwerken. In het beste geval met de juiste anchortekst.

  • Je ziet dat je html code kunt gebruiken, hierdoor is linken nog gemakkelijker.
  • Je kunt ook je anchor gebruiken als ‘naam’ waardoor Google deze indexeert als link.

Een andere manier om bv. wordpress blogs te vinden is door naar Google te gaan & in de zoekbalk [“powered by wordpress” <<  zoekwoord >>] op te geven. Google gaat dan zoeken naar alle blogs welke deze tekst onderaan hun site hebben (net zoals hier) en jouw zoekwoord bevatten.

Wanneer je de backlinks van je concurrent gaat analyseren, merk je vaak op dat ook hij of zij gebruik maakt van Blog Comments. Wat je dan kunt doen is een zoekopdracht uitvoeren met de username waarmee deze een comment achterlaat. En vaak vind je op deze manier nog eens hoge Pagerank websites.

Online SEO handleiding deel 9: Zoekwoorden gids

Welkom bij deel 9 van mijn Online SEO handleiding. In deze handleiding ga ik je de wereld van de Zoekmachine Optimalisatie (Search Engine Optimalisation) uitleggen. Dat doen we stap voor stap: je verdiept je eerst in de werking van zoekmachines, daarna leer je jouw website te optimaliseren voor zoekrobots.

Een website en zoekmachine werken voornamelijk samen d.m.v. zoekwoorden. Deze zoekwoorden zijn woorden of stukjes tekst welke op de website worden gebruikt om een betere score in de zoekmachine te krijgen.

1. Zoekwoorden in de < title > tag: Dit is de belangrijkste plek waar je zoekwoorden kunt plaatsen gezien deze direct in zoekmachines worden weergegeven. De titel van je website en/of pagina moeten rond de 6 a 7 woorden bevatten.

2. Zoekwoorden in de URL: Zoekwoorden in de url kunnen positief bijdragen aan je score in zoekmachines bijv: http://tijlvos.nl/trek-meer-bezoekers-naar-je-blog/, hierbij zijn “Trek meer bezoekers naar je blog” de zoekwoorden die een bijdrage kunnen bieden. LETOP: Zorg ervoor dat je de zoekwoorden in de URL ook in de tekst laat voorkomen.

3. Zoekwoord dichtheid op de pagina: Dit is een ander zeer belangrijk aspect waar je op moet letten. 3-5% voor de grootschalige zoekwoorden en 1-2% voor de kleintjes waarmee je niche bezoekers kan trekken. Wanneer je meer dan 10% aan zoekwoord dichtheid hebt dan kan de zoekmachine je site overslaan omdat het lijkt op een link-bait pagina, in plaats van een natuurlijk geschreven stuk tekst.

4. Zoekwoorden in de anchor tekst (ALT / alternatieve tekst, links): Deze tekst is belangrijk voor inkomen de links. Hiermee worden deze links gekwalificeerd.

5. Zoekwoorden in kopteksten (< H1 >, < H2 > en andere formaten: Veel zoekmachines zien dit als een belangrijke toevoeging voor de tekst op de pagina.

6. Zoekwoorden aan het begin van een document: Dit telt mee, niet zoveel als een alt tekst, titel tag of kopteksten. Deze tekst wordt vaak weergegeven in zoekmachines wanneer je geen description tag hebt.

7. Zoekwoorden in de < alt > tag: Zoekmachines kunnen nog beperkt afbeeldingen lezen, maar wat ze wel goed kunnen is het lezen van de < alt > tag welke bij de afbeelding hoort. De zoekmachine kan hierdoor de afbeelding gemakkelijk klassiviseren.

8. Zoekwoorden in meta-tags: Alhoewel dit steeds minder belangrijk begint te worden voor Google blijven Yahoo en Bing hier nog vol gebruik van maken. Zorg ervoor dat je metatags altijd relevant zijn.

9. Zoekwoord proximity: Met zoekwoord proximity wordt de dichtheid van de zoekwoorden in de regels bedoelt. Het is belangrijk om bepaalde zoekwoorden achter elkaar te plaatsen zoals “computer reparatie” zonder hier een woord tussen te plaatsen. Deze methode is voornamelijk relavant wanneer je doelt op meerdere zoekwoorden per pagina.

10. Zoekwoord stuffing: Wanneer de zoekwoord dichtheid hoger is dan 10% is de kans groot dat de zoekmachine je website niet indexeert.

11. Zoekwoord typfouten: Het komt vaak voor dat bezoekers een bepaald woord verkeerd intypen bijv; zoekword ipv zoekwoord of Christmas en Xmas. Betrek deze alternatieve zoekwoorden ook in je metatags, maar niet in je content. 


SEO handleiding Tijl Vos

4 stappen voor een site controle

Soms is het moeilijk om te weten waar je moet beginnen bij een site controle. Ga je direct de code uitlezen, of ga je de backlinks bekijken?
Al het bovenstaande is belangrijk, maar geeft je geen duidelijk beeld over de website en hoe hij verbeterd kan worden.
De volgende stappen zijn handig wanneer je met een nieuwe klant spreekt en deze wilt laten weten hoe je kan helpen.

1. Duplicate Content
Waarom is het belangrijk? Dubbele content kan de ondergang van elke website zijn. Wanneer er meerdere overeenstemmingen zijn is het moeilijk voor een zoekmachine om het origineel te onderscheiden van de kopieën. Dit heeft als uitkomst dat de zoekmachine minder relevante informatie van de site haalt en de ranking van de site flink omlaag haalt (laat je teksten eens per jaar overschrijven om ervoor te zorgen dat je altijd unieke content hebt).

Hoe controleer ik dit?
-Kopieer een stukje tekst
-Plak het stukje tekst in Google (of een andere zoekmachine) en zie welke website dezelfde content heeft.

2. Controleer je Robots.txt
Waarom is het belangrijk? Het gebruik maken van robots.txt kan super handig zijn wanneer je bepaalde pagina’s of folders niet wilt laten indexeren door zoekmachines. Maar deze functie kan zeer averechts werken wanneer je hem verkeer instelt. Om te controleren dat een site niet zichzelf blokkeert (en ik zit dit vaak gebeuren) of zijn eigen content uit de zoekmachine haalt kun je de robots.txt raadplegen.

Hoe controleer ik dit?
Het controleren is super gemakkelijk, neem tijlvos.nl als voorbeeld (http://tijlvos.nl/robots.txt).

3. Bekijk de cache versies van de website
Waarom is het belangrijk? Je hebt vast wel eens gehoord over cloaking. Doe dit niet! Door andere content of url’s te laten zien aan Google vraag je om een hoop gedonder met je Google ranking.

Het controleren is gemakkelijk omdat je kunt zien wanneer Google voor het laatste je site heeft bezocht. Dit is belangrijk want je wilt dat je site zo vaak mogelijk geïndexeerd wordt zodat Google altijd de laatste informatie heeft. Een lange crawl-periode kan aangeven dat je een penalty hebt gekregen of dat zich fouten op je website bevinden.

4. Canonicalization (duidelijke url’s)
Waarom is het belangrijk? Net zoals duplicate content het hebben van meerdere versies van dezelfde content over verschillende locaties kan je Google ranking negatief beïnvloeden.

Hoe controleer je dit?
Het is super gemakkelijk. Ga alle links af op je website en controleer of ze naar de canonical versie van je site richten.

    http://www.example.com
    http://example.com
    http://www.example.com/index.html
    http://example.com/index.html
    http://www.example.com/INDEX.html
    https://www.example.com/index.html

Online SEO handleiding deel 8: Negatieve factoren voor de ranking van jouw site

Welkom bij deel 8 van mijn Online SEO handleiding. In deze handleiding ga ik je de wereld van de Zoekmachine Optimalisatie (Search Engine Optimalisation) uitleggen. Dat doen we stap voor stap: je verdiept je eerst in de werking van zoekmachines, daarna leer je jouw website te optimaliseren voor zoekrobots.

We hebben verschillen factoren gezien die een postief effect hebben op de ranking in Google (en andere zoekmachines). Er zijn echter ook een aantal factoren die de ranking negatief kunnen beïnvloeden. Het is belangrijk die ook te weten. We geven  je hier een overzicht van die factoren. De eerste in de lijst is degene met de meest negatieve invloed, etc.

1. Slechte bereikbaarheid van de website
Als de server waarop jouw website gehost wordt vaak down is, waardoor zoekspiders (mn. GoogleBot) steeds tegen een onbereikbare pagina aanlopen, wordt dit beschouwd als een niet betrouwbare website. Dergelijke websites wil Google vanzelfsprekend niet aan zijn zoekers aanbieden. Dit aspect heeft een groot negatief effect op de ranking.

2. Dubbele content
Als je een website bouwt met content (tekstuele inhoud) die je kopieert vanaf een andere site, dan wordt dit beschouwd als ‘duplicate content’ en is een hoge of zelfs redelijke score onmogelijk geworden. Het wordt niet beschouwd als spam, maar de website verdwijnt wel naar een positie ergens laag in de rankings. Alleen de originele website kan hoog scoren.

3. Verwijzingen naar lage kwaliteit websites of lage kwaliteit buurten
Let op naar welke websites je verwijst vanuit jouw eigen website. Voorbeelden daarvan zijn ‘linkfarms’. Dit zijn websites waar je jouw website kunt aanmelden om dan een verwijzing naar jouw website te krijgen. Je moet dan wel een link terug naar hen opnemen. Soms moet je voor zo’n verwijzing zelfs betalen. Een periode heeft dit principe goed gewerkt en waren linkfarms erg populair. Tegenwoordig heeft Google geavanceerde filters om linkfarms tegen te gaan. Maar sterker: als je met dat soort sites in zee gaat, heeft het dus zelfs een negatief effect op de ranking van jouw eigen website.

4. Dubbele title- en meta-tags op verschillende pagina’s van jouw website
Iedere pagina van jouw website moet een title- en een aantal meta-tags (description, etc.) hebben. Zorg er in ieder geval voor dat iedere pagina een unieke title en description heeft. Doet je dit niet, dan kan dit de ‘dubbele content’-filters triggeren, zoals beschreven onder punt 2. De spider zal dan, zeker als de pagina weinig content/tekst bevat, concluderen dat er al zo’n pagina bestaat en de pagina daarmee niet of slecht indexeren.

5. Pagina volgestopt met zoekwoorden
Er is een bovengrens aan het aantal keer dat jouw zoekwoorden in de body van de pagina mag voorkomen. Als vuistregel geldt een percentage van 15%. Het gaat er in ieder geval om dat de tekst goed leesbare blijft voor jouw bezoekers van vlees en bloed. Websites waarbij gepoogd wordt met een hoog percentage zoekwoorden in de pagina hoog te scoren in zoekmachines zijn niet alleen voor echte bezoekers maar ook voor spiders, slechte sites. Zowel de echte bezoekers als de spiders haken snel af.

6. Jonge website
Google werkt met het fenomeen ‘trusted site’, waar de leeftijd van het betreffende domein (sommigen zeggen de leeftijd van de verwijzingen naar het domein) een belangrijke rol speelt: hoe hoger de leeftijd, hoe meer trust. En hoe meer trust, hoe hoger de ranking. Google wil de ontwikkeling van jonge domeinen even aankijken. Dit kan wel een jaar duren. Je scoort dan wel in de zoekmachines, maar nog niet optimaal.

SEO handleiding Tijl Vos

AIDA voor website’s

Attention
Stel je verkoopt printartikelen waaronder flyers. Iemand die direct opzoek gaat naar flyers is primair op het product gericht. Veel van je concurrenten zullen strijden om de eerste plek in de zoekmachines hierop. Maar probeer je eens in de positie van de koper te verplaatsen, wanneer heeft hij flyers nodig? Dat zou bijvoorbeeld zijn wanneer wanneer hij een nieuw product lanceert of wanneer hij zich wilt richten tot een bepaalde groep? Wanneer een bezoeker in de zoekmachines opzoek gaat naar flyers dan kun je het op verschillende manieren aanpakken:
Domain aandacht, de drukker maakt gebruik van de naam flyer in zijn domeinaam:
URL aandacht, de drukker gebruikt zijn hoofddomein voor zijn website maar heeft een speciale pagina /flyer toegewijd aan het leveren van flyers.
De eerste maakt gebruik van een te lange naam met moeilijke woorden zoals offset, een bedrijf wat snel zijn flyers wilt laten drukken gaat veel sneller naar de tweede link omdat hier duidelijk in staat wat de drukker bied.

Interest
Nu komt de bezoeker op de betreffende pagina op jouw site (wat dus waarschijnlijk niet de homepagina is). Nu is het belangrijk de bezoeker niet teleur te stellen!
Geef nu duidelijk de voordelen aan van het product die horen bij de zoekopdracht, die was gebruikt in de zoekmachine. Hij moet het gevoel hebben dat jij zijn/haar probleem begrijpt.
Dan is de interesse in jouw product versterkt en wil de bezoeker mogelijk meer weten: Interest.

Desire
Nu is het essentieel in te spelen op de behoefte het product te verkrijgen: Zaken die tijdgebonden zijn, een voordeel ten opzichte van anderen, eenvoudig bestellen (in hoeveel stappen), transparantie en duidelijkheid zijn nu zeer belangrijk!

Aanbieding van de maand, beperkte voorraad, beslis nu, 3 voor de prijs van 2, wacht niet langer etc. zijn voorbeelden hiervan. Wanneer je in de dienstverlening werkzaam bent, zien aanprijzingen er anders uit. Denk aan “Maak nu vrijblijvend een afspraak en u bespaard gegarandeerd in uw printkosten” of “Met deze check-up weet u direct hoeveel u teveel betaald met op locatie printen!”.

Mocht de bezoeker nog iets meer informatie nodig hebben vóórdat hij beslist, biedt dan ook die mogelijkheid. Dat kan zijn een knop naar extra informatie of op een duidelijk herkenbare plek op de pagina staat die informatie of is te downloaden. Daarnaast is een bel mij terug formulier of online chat ook steeds meer in trek.
Nu staat de bezoeker in de modus: Hoe kan ik het product krijgen? : Desire.
Nu gaat het erom dat de te nemen actie weinig moeite kost.

Action
Weinig moeite begint met dat de bezoeker duidelijk ziet wat hij moet doen en wat van hem verwacht wordt. Bestel nu in 3 stappen is duidelijk.

Vandaag besteld, morgen in huis geeft aan de snelheid die kan aanzetten tot actie.
Het is ook essentieel de koper te informeren hoe je omgaat met de gegevens van klanten, welke voorwaarden aan de bestelling of actie zijn verbonden. Hoe eenvoudiger en transparanter, des te groter is de kans dat de bezoeker de gewenste actie neemt, dus in het voorbeeld: de flyers aanvraagt.

Afhankelijk van de doelstelling van jullie site of specifieke pagina s die volgens AIDA zijn opgesteld, is de Action verschillend.

Is jullie doelstelling e-mailadressen verzamelen? Producten verkopen? Checklists downloaden? Bellers? Dat bepaalde de gewenste actie.

hoog-op-google-300x225

Inzicht in rapporten over door Google gecertificeerde advertentienetwerken

Sinds de introductie van een nieuw rapport dat informatie biedt over hoeveel inkomsten u genereert uit door Google gecertificeerde advertentienetwerken van derden, hebben we van allerlei uitgevers vragen gekregen over hoe ze de cijfers moeten interpreteren. Sommige uitgevers hebben ons laten weten dat zij nu advertentienetwerken blokkeren die slecht presteren op basis van de inkomsten per duizend vertoningen (RPM). Dit blokkeren kan een negatieve impact hebben op de totale inkomsten. Vandaag willen we uw vragen beantwoorden en u richtlijnen geven met betrekking tot de interpretatie van uw rapporten en het blokkeren van specifieke advertentienetwerken.

Laten we eerst kijken naar het analyseren van RPM-cijfers. Als u ooit met behulp van kanalen kleurencombinaties voor uw advertentieblokken heeft getest, bent u wel vertrouwd met het vergelijken van de RPM’s van elk kanaal om te achterhalen welke combinatie het effectiefst is. Als u eenmaal de effectiefste kleurencombinatie heeft gevonden, gebruikt u die en verwijdert u alle andere opties. Dit werkt voor kanalen, maar niet voor door Google gecertificeerde advertentienetwerken.

Het is waar dat in beide situaties de RPM de geschatte inkomsten weerspiegelt die u genereert voor elke 1000 vertoningen die u ontvangt. Wanneer u echter layoutopties test met behulp van kanalen en de opties verwijdert die niet goed presteren, heeft deze actie geen directe invloed op de dynamiek van de advertentieveiling. Het kiezen van een blauwe achtergrond in plaats van een groene, leidt er niet automatisch toe dat bepaalde advertenties niet langer geschikt zijn voor weergave in die advertentieruimte. Het zorgt er alleen voor dat bepaalde advertentieruimtes beter presteren. Bij door Google gecertificeerde advertentienetwerken zijn de RPM’s afhankelijk van de beschikbare advertentievoorraad. Door een advertentienetwerk te blokkeren, worden geschikte advertenties uit de veiling verwijderd. Daarom raden u ten zeerste af advertentienetwerken louter op basis van de RPM te blokkeren. Een voorbeeld:

Ad networks Impressions RPM
Network A 10,000 $1
Network B 14 $3
Network C 1000 $0

Netwerk B heeft de hoogste RPM en lijkt daarom beter te presteren dan de andere netwerken. Houd er echter rekening mee dat deze statistiek gebaseerd is op slechts 14 vertoningen en mogelijk niet dezelfde inkomsten oplevert bij 1000 of 10.000 vertoningen. De waarde van vertoningen kan sterk uiteenlopen en de RPM van een klein aantal vertoningen kan daarom misleidend zijn.

Netwerk C heeft de laagste RPM. Het om die reden blokkeren van netwerk C kan een negatieve impact hebben op de inkomsten. Ons systeem zal namelijk altijd de waarde van elke vertoning in een advertentieveiling maximaliseren. Als een advertentie van Netwerk C werd weergegeven op uw pagina’s, kwam dit omdat andere voor weergave geschikte advertenties minder inkomsten voor u zouden hebben gegenereerd. Door Netwerk C te blokkeren, kan een ander netwerk met een lager bod de advertentieveiling winnen.

Doorgaans wordt door blokkeren het aantal advertenties gereduceerd dat deelneemt aan de advertentieveiling, wat een negatieve impact kan hebben op uw potenti√´le inkomsten. Houd er rekening mee dat er niet zoiets bestaat als ‘het filteren van slecht betalende advertenties’, omdat elke advertentie die op uw pagina wordt weergegeven, de veiling heeft gewonnen voor die ruimte en de meeste inkomsten voor u zal genereren.

Uiteraard moet u soms de weergave van advertenties blokkeren vanwege de inhoud van de advertentie of vanwege de adverteerder. Er zijn verschillende opties in uw account beschikbaar voor verschillende scenario’s.

Op basis van uw feedback blijven we er voortdurend aan werken u meer beheermogelijkheden te bieden voor de advertenties die op uw site worden weergegeven. Houd deze blog dus in de gaten voor nieuwe aankondigingen. Overweeg echter zorgvuldig welke advertenties u blokkeert, zodat u het volledige potentieel aan inkomsten realiseert.

Door Arlene Lee, team Inside AdSense