Webbureauets fatale SEO fejl

Dit webbureaus mest fatale SEO fejl

Flere virksomheder kommer til mig fordi de har tabt omsætning efter de har fået et nyt website udviklet af et professionelt webbureau. Det er svært at forstå for det nye website er måske bygget på den seneste teknologi, er blevet lagt mere brugervenligt og meget mere salgsorienteret end det gamle website.

Problemet skal findes i deres placeringer på Google – eller rettere deres tabte placeringer på Google. Husk på at der er kun 10 pladser på side 1 af Google til de organiske søgeresultater.

Det er ingen tilfældighed at det er netop de 10 sider som har pladserne på side 1. Siderne har gennem tid opnået en vis værdi hos Google og Google ved hvilke søgeord disse sider skal ranke på. Hvis én af siderne i top 10 ikke længere findes, så tager Google (i teorien) bare nr. 11 og flytter ind på nr. 10.

 

Lad mig forklare nærmere

Du får et (dygtigt) webbureau til at lave en hel ny hjemmeside til dig. Designet spiller. Navigationen spiller. Alt ser skide godt ud.  Siden er kommet over i et nyt SEO venligt CMS – så søgemaskineoptimeringen burde også spille. – Det gør den bare ikke.

For alle siderne på hjemmesiden (med undtagelse af din forside) har fået nye adresser uden at lede hverken brugere eller Google hen på de nye adresser. Det kunne f.eks. være siden om Svæverammer som før lå på www.torbens-rammer.dk/svaeve-rammer.html men nu er flyttet til www.torbens-rammer.dk/produkter/svaeve -rammer/

Den gamle adresse lå fint indekseret i Google, men Google vil selvfølgelig ikke have links i deres søgemaskine som ikke længere findes. Derfor begynder Google at fjerne alle de links som ikke føre nogle steder hen (sider som genererer 404 fejl).

Her er en statistik fra Google Webmaster Tools, som viser antallet af indekseret sider på et website. I vinters fik websitet et helt nyt design og nye adresser. Læg mærke til hvor mange sider der røg ud af indekset.

 

Webbureauets fatale SEO fejl

Statistik over antal indekserede sider i Google efter et redesign og skifte til nyt CMS.

I marts måned var over halvdelen af de indekserede sider væk fra Google.

I september gik jeg i gang med websitet og fik rettet lidt op på skaden. Via Google Webmaster Tools trak jeg en liste ud med alle de 404 fejl som Google havde fundet. Og en efter en begyndte fik jeg redirected dem over på sider som eksisterede.

 

En lille øvelse med kæmpe værdi

Min kundes webbureauet havde enten glemt eller kender ikke den betydning det har når en hjemmeside skifter adresser. Og sådan er det desværre for rigtig mange webbureauer.

Det ærgerlige er at webbureauerne sælger deres produkt på at kunden vil opnå et større salg. Det vil kunden måske også hvis deres placeringer blev bevaret.

Med værktøjer som Xenu eller Screaming Frog vil de på få minutter kunne lave en liste over den gamle hjemmesides URL adresser.  Listen med de gamle URL’er trækkes over i Excel. Her laves en ny kolonne hvor man notere de nye URL’er.

Med de to kolonner kan der relativt nemt laves et redirect script, en .htaccess fil til Linux/Unix hostede hjemmesider, en UrlRewriting.config til Umbraco eller en IIS rewrite filter konfiguration til øvrige Windows hostede hjemmesider.

Gør du det inden, så bevarer dine nye sider et sted mellem 90-99% værdi hos Google.

Gør du det først når skaden er sket, skal der dels lægges et meget større detektiv arbejde i opgaven og dels har dine de-indekserede sider, tabt værdi hos Google, som vil tage lang tid at genvinde.

5 kommentarer til “Dit webbureaus mest fatale SEO fejl”

  1. Thomas Wichmann

    Hej Lars

    Godt indlæg. Vil dog lige tilføje at jeg ikke syntes dette er den mest fatale fejl et webbureau kan lave.. Kan nævne indtil flere. Eksempeltvis.:
    Glemme at lukke for søgemaskinerne på deres udviklingsdomæner. Dette ved vi jo giver DC eller Duplicatet content.
    Glemme at åbne for søgemaskinerne når sitet går online efter at være blevet udviklet.
    Jeg oplever oftere og oftere at nye kunder kommer til mig, og ikke kan forstå at deres placeringer er væk, og man så finder ud af at dette skyldes at der er lukket for søgemaskinerne, med en noindex i meta koden.
    Men ja ellers er adresseændringer en af de helt store bommerter som webbureauerne kan lave 😉

    Svar
    • Lars Skjoldby

      Tak, Thomas.
      Jeg må indrømme at det er sjældent jeg støder på indekserede udviklingsdomæner – men selvfølgelig sker det.
      Glemme at åbne for søgemaskinerne har jeg også set tit, enten som du skriver eller med disallow i robots.txt. Sidstnævnte ser jeg mest på helt nye websites. Her er min holdning, at lige så snart man begynder at hælde indhold på, så bør man lukke søgemaskinerne inden for. Det kan godt være det ikke spiller 100%, men få nu indekseret skidtet, og så kan du altid tilrette det bag efter.

      Svar

Kom og vær med. Skriv en kommentar.

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *