Ook al gebruik je de "disallow" tag in je Robots.txt, Google zou deze nog steeds wel eens kunnen indexeren. Dit kan door het volgen van een externe backlink. De beste methode om dit te voorkomen is je pagina's te beveiligen met een paswoord. Bots kunnen hier niet langs en zullen achterliggende pagina's niet indexeren.
2) De meta discription getoond in de zoekresultaten is altijd jou ingevoerde omschrijving.
Neen, omwille van één van de laatste updates van Google's algorithmen is dit niet steeds waar. Er kunnen lijnen opgenomen worden uit de pagina inhoud. In de resultaten worden op deze manier overeenkomstige tekst snippets getoond, voornamelijk relevant voor lange zoekqueries.
3) Het instellen van de crawl rate settings in Google webmastertools zal de crawl rate van je site voor altijd veranderen.
Blijkbaar niet, Google houdt ook rekening met de update frequency van je site of blog. Er wordt een toepasselijke crawl frequency toegekend, los van je manuele instelling in je webmastertools.
4) De AllinOneSEO plugin zorgt automatisch voor goede SEO.
Neen, was het maar waar ;-). Zulke plugins doen wel hun werk, ik beweer ook niet dat deze slecht zijn MAAR. Soms kunnen deze wel meer slecht doen dan goed. Wanneer je deze plugins instelt op "auto generate" krijg je vaak te maken met duplicaten in je descriptions. Best dat je deze toch steeds manueel checkt, invoert en optimaliseert met jouw targetted keywords.
5) De 4% keyword density regel volgen.
De dag vandaag besteden zoekmachines niet veel aandacht aan je keyword density (zoekwoorden dichtheid). Maak maar eens de berekening, je neemt een blogpost met heel wat tekst, en eentje met maar 15 regels tekst. De zoekwoorden dichtheid of keyword density is geen metriek die je nog in rekening moet brengen. Je kan je veel beter toespitsen op de relevantie factor. Zorg dat je keywords strategisch geplaatst zijn. Zoals in je meta keywords, meta description, title tag, heading, body tekst, begin en einde van je tekst, highlight deze, gebruik deze in je interne links.
6) Linken naar "authority websites" verbetert je reputatie.
Als het zo was zou het wel erg makkelijk zijn, laten we allemaal linken naar websites als "Apple", "Adobe", "CNN", ..... .
7) Een hoge pageRank betekent een betere ranking.
Een hoge pageRank heeft weinig of geen invloed op ranking in Google. Het betekent wel dat je een kwalitatieve website hebt, dit gekoppeld aan de periode dat deze online staat en bezocht wordt. Een website die reeds jaren veel bezocht wordt krijgt automatisch gaandeweg een hoge pageRank.
8) Je website submitten naar zoekmachines is de enige manier om geïndexeerd te worden.
Neen, relevante en kwalitatieve links naar je website werken heel wat beter.
9) Een flash pagina betekent slecht voor SEO.
Helemaal niet, lees op mijn SEO blog volgende artikels maar even:
Zelfs dynamische flash files kunnen we SEO vriendelijk ontwikkelen.
10) Gebruik een Wordpress blog en je hebt automatisch een goede SEO.
Ik gebruik Blogger, hier heb ik wel zeker mijn redenen voor. Wordpress is een erg goede tool maar Blogger ook. Andere trouwens ook. Je moet je platform gewoon goed gebruiken.
11) Hoe meer inkomende links, hoe beter je scoort.
Technisch gezien waar en niet waar. Beter kwalitatieve links naar je website, van een website met een goede pageRank dan heel veel links zonder waarde.
12) Dynamische links zijn slecht voor je site.
Ook weer niet waar, verwerk deze naar een leesbaar formaat en dit helpt nog steeds voor je SEO. User friendly url's zijn wel nog beter, zeker in combinatie met een geoptimaliseerde inhoud.
13) Sitelinks verkrijg je enkel met een website met een hoge PR.
Sitelinks worden automatisch gegenereerd bij websites met een hoge trafiek. Hier is weinig controle over.
14) Het gebruik van een meta "nofollow" zal de zoekmachine tegenhouden van het crawlen.
Neen, wanneer een crawler terecht komt op je website via een externe link, zal deze je pagina(s) indexeren.
15) Een diepe site structuur voor je website is slecht voor SEO.
Niet altijd. Zorg ervoor dat je pagina's goed gelinkt zijn. Plaats op je eerste pagina's in je top niveau reeds goede linken naar deze diep gelegen directory's. Als je dit niet doet is het niet eenvoudig deze makkelijk geïndexeerd te krijgen. Lees mijn artikel over een goede structuur voor je website.
16) Gebruik veel keywords in je page title.
Dit helpt je om je site als spam gedecteerd te worden. Het kan je even een boost geven maar je rankings zullen niet erg lang blijven.
17) Je keywords in het "bold" plaatsen helpt.
Ja en neen, doe dit niet teveel, gebruik het aan het begin en einde van je body tekst. Teveel je keywords gebruiken en in het bold plaatsen is niet goed.
18) Een gegarandeerde nummer 1 positie.
Ik garandeer dit nooit, iemand die het wel doet, daar moet je je eigen conclussies maar uit trekken ;-).
19) SEO is een eenmalig proces.
Neen, eens je een goed resultaat bereikt hebt moet je dit onderhouden en verder uitbreiden natuurlijk.
20) Als je "de 10 tips voor SEO" toepast op je website kan niemand je nog verslaan!
En wat voor al de anderen die dit ook gedaan hebben ;-).
Ken jij nog SEO mythes, leugens of fabeltjes, vul het lijstje maar aan ;-).
3 reacties:
Hoe denk je erover om de website bewust niet bij Google aan te melden, maar via links naar je website te laten 'ontdekken' door Google?
Zal dit direct positieve invloed hebben op je ranking?
ik zou zeker niet enkel wachten tot Google je website gevonden heeft. Het aanmelden van je website heeft als doel dat een bot je website gaat bezoeken en je website deels zal indexeren. Hoe sneller pagina's van je website opgenomen zijn in de index, hoe sneller het proces start dan Google je pagina's zal ranking. Het niet aanmelden van je website heeft eerder een negatieve invloed, het zal langer duren voor je pagina's in de resultaten zullen verschijnen ;-)
@Mike, verkeerde interpretatie van me ;-).
Merci voor het lijstje van SEO nonsens aan te vullen!
Een reactie posten