Om beter te begrijpen hoe Google Panda-update een groot aantal websites beïnvloedde en nog steeds beïnvloedt, is het een goed idee om te beginnen met waarom Google deze algoritme-update heeft gelanceerd en wie het doelwit was. Op korte woorden, de Panda update (oorspronkelijk de FARMER update) werd verondersteld om de rang van slechte kwaliteit websites lager, en geven websites met dichte kwaliteit inhoud de kans om hoger te groeien in SERP (Search Engine Result Pages).
Een website van slechte kwaliteit wordt door Google beschouwd als een tekort aan inhoud of overgeoptimaliseerd. Een van de belangrijkste problemen die webmasters hebben geconfronteerd met deze update is het gebrek aan informatie voor. Anders kondigt Google zelden wijzigingen aan die het zal aanbrengen in het zoekalgoritme, zodat SEO-marketeers en webmasters geen tijd hebben om te reageren en hun technieken dienovereenkomstig te veranderen. Echter, Matt Cutts, een top software engineer en Google, gaf wat advies over de updates die op het punt stonden te volgen: Panda en Penguin updates.
De Panda-update heette oorspronkelijk Farmer Update omdat het belangrijkste doel ervan de websites van de inhoudsboerderij was, die gewoon door gebruikers ingediende inhoud verzamelden waardoor de website van de gebruiker backlinks mogelijk maakte. Het grootste deel van de inhoud was dun, wat betekent dat lage kwaliteit, het verstrekken van weinig of geen informatie aan de lezer. Panda update ook gericht dunne inhoud websites zoals blogs, die vaag informatieve inhoud weergegeven had. Een belangrijk ding om te weten over Panda is dat het een site-brede straf; dit betekent dat als de Google Bot beschouwt een of twee pagina’s van een website van slechte kwaliteit, de hele site zal lijden een verlies in SERP.
Welke websites werden gemarkeerd door de update? Hoewel panda-update een nivelleringsupdate moest zijn, hebben websites met diepgaande analyse-inhoud van hoge kwaliteit de kans om te groeien in de resultaten van zoekmachines. Dit is een volgende stap voor Google om kwaliteit over-balanceren van de hoeveelheid inhoud te maken. Echter, het gebeurde dat kort na de eerste versie van de update, veel sites last van schroot. Scrappers zijn websites die originele inhoud uit andere bronnen kopiëren en bovenop de resultaten komen in plaats van de oorspronkelijke websites waar de inhoud voor het eerst werd geplaatst. Echter, Google heeft veel van dit probleem opgelost in toekomstige updates van de Panda algoritme.
Als u een slechte kwaliteit website, dan weet je dat je een grote kans om geraakt te worden door de Panda update, of je zou al zijn geraakt. Het belangrijkste ding om te leren over deze update is dat de inhoud moet de koning, en de kwaliteit is duurder dan de kwaliteit. Keer terug naar de SERP-sterkte van uw website door zeer informatieve inhoud te publiceren en koste wat het kost overoptimalisatie te voorkomen.
No Comments