SEO eller search engine optimization er en måde, hvorpå der kan skabes flere besøgende, og dermed mere salg til en online forretning. Det handler i bund og grund om, at man forbedre hjemmesidens aspekter internt, men også eksternt, set ud fra hvad søgemaskinerne forventer, og har af opstillede krav til hjemmesiderne. Det er den måde søgemaskinen opererer på, også kaldet algoritme.  Søgemaskinens algoritme, kan derfor vurdere hvorvidt en hjemmeside er af vigtig, eller knap så vigtig karakter.

SEO

Ved hjælp af rank-tracking og omfattende søgeordsanalyse kan man afsløre, hvordan -og på hvilke ord den pågældende hjemmeside ranker – rank er den placering hjemmesiden får i søgemaskinen, når søgningen er foretaget – Søgeresultaterne har forkortelsen SERP (search engine result page). Der kan være søgeord/sætninger der er populære hos flere hjemmesider, derved skærpes konkurrencen, samtidig med at  tiden og pengene, der skal investeres i SEO-arbejdet øges. Det er vigtigt at bide mærke i, at de forskellige søgemaskiner ikke arbejder ud fra den samme algoritme, og det er derfor ikke sikkert at en hjemmeside ranker lige så højt på Bing som på Google. Dog arbejder langt størstedelen af SEO-eksperterne med Google for øje, der også må siges at være den mest anvendte søgemaskine.

Det periodiske SEO-system

Generelt set anvender Google flere hundrede faktorer, de skal vurderer, hvem der skal ranke på hvilken placering, på en given søgning. Det er ikke alle faktorer, der tæller lige meget, men samlet set, udgør de 100% – det er sådan du bør tænke på det, når du forsøger at optimere dit website.

Du bør dog ikke stræbe efter at nå de 100%, for det er umuligt – der vil altid være en form for kompromis, du skal indgå, for du også finder dig selv tilfreds. Det kunne f.eks. være brugervenlighed eller designmæssige aspekter, der er vigtige for konverteringsgraden eller vigtige ift afspejling af din virksomheds budskaber. Men, jo tættere du kommer på de 100%, desto bedre er dine muligheder for at ranke godt i søgemaskinerne.

Herunder kan du se en godt, samlet overblik over de vigtigste faktorer for SEO. Tabellen, som er opsat mere eller mindre som det periodiske system, vi kender, er udarbejdet af Search Engine Land. – og det giver faktisk rigtig god mening.

Det er som udgangspunkt opdelt i 2 dele: On-page SEO og Off-page SEO. Dernæst er on-page SEO faktorer, som f.eks. indhold, arkitektur og HTML tildelt point. Det samme gælder for off-page SEO faktorerne, som f.eks. Autoritet, links, social tilstedeværelse mm. Men, det er ikke kun pluspoint, der er en del af systemet – også de negative parametre er listet – naturligvis med minuspoint. Det kunne f.eks. være keyword stuffing (overoptimering af søgeordstæthed), cloaking, tyndt indhold, betalte- eller spam-links osv. Dermed har du et godt billede af, hvor du bør sætte ind ift optimeringsarbejdet, og ikke mindst hvor du absolut ikke bør sætte ind, eller hvad du bør holde dig fra.

Sådan opererer søgemaskinerne

Depositphotos_39308571_xsDen første, grundlæggende sandhed, du bør vide, for at lære SEO er, at søgemaskiner ikke er mennesker. Det er måske en oplysning, der er indlysende for de fleste, men du skal vide, at søgemaskinerne er konsekvente i deres handling, da de, i modsætning til mennesker, ikke er drevet af følelser, men derimod af indhold – med indhold mener jeg tekst! Selv om teknologien skrider hurtigt, er søgemaskiner langt fra intelligente væsener, der kan føle skønheden i et lækkert design eller nyde lyde og bevægelser i film. I stedet gennemgår søgemaskiner internettet, og ser på det enkelte websted indhold for at få en idé om, hvad webstedet handler om. Groft sagt, kan man altså påstå, at søgemaskinerne udfører flere aktiviteter med henblik på, at levere de bedste og mest relevante søgeresultater via gennemgang, indeksering, forarbejdning og beregning af relevans.

Først gennemsøger søgemaskiner internettet for at se, hvad der er der. Denne opgave udføres af et stykke software, kaldet en crawler eller en spider (eller Googlebot, som det er tilfældet med Google). Søgemaskinens crawler følger links fra én side til en anden, og indekserer alt, hvad de finder på deres vej, med mindre du som website-ejer, har sørget for at udelukke sider, du ikke ønsker skal indekseres i søgemaskinerne.

Hvad du kan gøre er, at kontrollere hvad en crawler ser på dit websted. Som allerede nævnt, er crawlere ikke mennesker, og de kan ikke se billeder, Flash, JavaScript, frames og password-beskyttede sider og mapper, så hvis du har tonsvis af dem på dit websted, må du hellere køre en Spider Simulator for at se, om dette indhold kan ses af Søgemaskinernes robotter. Hvis de ikke er synlige, vil de ikke blive set, og dermed ikke indekseret, ikke forarbejdede osv. – med andre ord, de vil være ikke-eksisterende for søgemaskinerne.

Efter en side er gennemgået, er næste skridt at indeksere indholdet. Den indekserede side er gemt i en kæmpe database, hvorfra det senere kan hentes. I grove træk er processen af selve indekseringen, at identificere de ord og udtryk, der bedst beskriver de pågældende sider, og dermed tildele dem autoritet i forhold til bestemte søgeord.

Der er forskellige algoritmer til at beregne relevans. Hver af disse algoritmer har forskellige måder, at vægte de fælles faktorer, som søgeord massefylde, links eller tags på. Det er grunden til, at forskellige søgemaskiner giver forskellige søgeresultatsider, på en ellers identisk søgestreng. Desuden er det et kendt faktum, at alle de store søgemaskiner, som Google, Bing, Yahoo osv. periodisk ændrer deres algoritmer. Så hvis du ønsker at blive i toppen, skal du tilpasse dine sider til de seneste ændringer.

Ud over, at dit website skal være søgemaskinevenligt,  for at opnå en god og ikke mindst solid placering i søgemaskinerne, kræver det også en god opbygning, god aktivitet og ikke mindst indgående links fra andre hjemmesider. Disse links kommer ikke altid af sig selv, og derfor må man  ofte ud at investere  linkbuilding/linkbygning. Hvis du nu sidder og tænker “men Google siger jo, at jeg bare skal lave godt indhold – så skal andre nok linke til det” – bullshit! Du er nødt til at gøre en indsats selv. Det kan godt være, at den indsats ikke er at købe links, men du skal gøre dit for at skubbe det ud til relevante kilder og netværk. Du kan med andre ord ikke bare læne dig tilbage og se til!

On-page SEO

Som nævnt under punktet med det periodiske SEO-system, er der 2 typer af optimeringsarbejde, du bør kigge på, når du igangsætter din SEO-strategi: On-page og Off-page SEO. Den første vi skal gennemgå her, er on-page SEO. Som navnet antyder, er der altså tale om optimeringsarbejde på selve websitet. Det er især tekniske faktorer, der reguleres her.

TITLE-tag

TITLE er det klikbare element på en søgeresultatside. Det er gennem TITLE-tag, du fortæller søgemaskinerne (og brugerne) hvad siden handler om. Ikke siden i sin helhed, men den specifikke underside, brugerne lander på. Det er derfor vigtigt, at TITLE er klar i budskabet og ikke mindst indeholder siden vigtigste søgeord. TITLEs er en direkte ranking faktor i Google, og det er netop derfor, du kan vinde fordel ved at bruge dit vigtigste søgeord her.

Herunder ser du et søgeresultat fra Google.dk. De øverste linje, som er det klikbare element, udgør det, som i fagsprog hedder TITLE-tag.

Søgeresultat i Google

Som det fremgår af ovenstående billede er længden på teksten passende. TITLE er ikke skåret af nogle steder og jeg kan se, der står præcis det, jeg har angivet.

Der er nemlig nogle redaktionelle krav til længden af TITLEs. Og selvfølgelig, som med så meget andet, skal Google også her, være en smule på tværs. Google Måler nemlig ikke TITLEs i anslag, men i pixels – altså hvor bred din TITLE er. Kravene, hvis du vil være sikker på en sammenhænge og struktureret TITLE, ligger på over 200 pixels men under 487 pixels. Det svarer til mellem 30-65 karakterer

Bruger du SEO by Yoast, vil det, i din backend, automatisk fremgå, om TITLE har den rigtige længde. Hvis du ikke bruger Yoast, kan du benytte et eksternt værktøj, til din måling af TITLE.

META-description-tag

META-description er teksten, der figurerer under TITLE i et søgeresultat. Teksten trækkes ud fra siden META-description-tag og bør være en salgfremmende tekst, der har klare CTA (Call To Action (s))  Derudover bør META-description også tage udgangspunkt i den pågældende landingsside og ikke websitet som helhed.

I modsætning til TITLEs, er META-description ikke en direkte ranking faktor i Google. Det er CTR derimod, og med en god og fængende META-description, kan du forbedre netop denne og dermed opnå bedre placeringer i søgemaskinerne. Det er klart, at CTR naturligvis ikke kan stå alene.

Google og andre søgemaskiner har også her nogle redaktionelle krav, og igen måler Google ikke anslag, men bredden af META-description i pixels. Så hvis du vil opnå den perfekte META-description, hvad bredde angår, så bør du holde dig mellem 400 og 933 pixels. Det svarer til mellem 70-156 karakterer.

Tekst

En af de ting, som jeg meget ofte ser er, at folk ikke har nok tekst på deres website. Det kan være et kæmpe stort problem, af flere årsager: skriver du ikke nok tekst, skriver du ikke en fængende tekst, og skriver du ikke en søgeordsoptimeret tekst, jamen så skal du ikke regne med, at det SEO-mæssige udfald bliver godt, af de simple årsager at:

For lidt tekst: du risikerer af dine sider er udtryk for det, som i fagsprog hedder tyndt indhold. Hermed risikerer du også, at blive filtreret fra, af Google opdatering, Panda, som netop tager udgangspunkt i tyndt indhold.

Ikke fængende tekst: Hvis din tekst ikke er fængende nok, vil du opleve at brugerne forlader dit site hurtigt igen. Det betyder at din Bounce Rate / afvisningsprocent stiger og dermed danner grundlag for dårlig User Engagement Data, som der også ses på af Google, når pladserne skal fordeles.

Ikke søgeordsoptimeret tekst: Du bør altid have styr på dine vigtigste søgeord og bruge dem i teksten for den pågældende side, der skal ranke godt på disse. Bruger du ikke søgeordene i teksten, skal du ikke regne med at ranke godt på det.

Det er altså ikke nok at skrive en god tekst, der tilgodeser brugerne og som er lang nok – du skal huske at inkludere dine søgeord. I reglen skal der som minimum skrives 300 ord på en side, førend vi kan være sikre på, at den ikke kategoriseres som tyndt indhold.

Lidt mere om landingssiden…

En landingsside skal som sagt optimeres for et givent søgeord, eller et par af de vigtigste. Det vil sige, at du som website-ejer er nødt til at publicere en landingsside, for de søgeord, du gerne vil vises på. Inden du gør igang med at skrive teksten, bør du dog altid have undersøgt, om det søgeord du vælger, nu også er det rigtige. F.eks. er det ikke sikkert at brugerne søger efter armatur bare fordi, det er det fagsprogsmæssigt korrekte – de søger nok nærmere efter vandhane.

Når du har udformet din tekst, er det så, du skal indarbejde det absolut vigtigste pointer i din META-description, samt siden vigtigste søgeord i din sides TITLE. Derudover bør sidens primære overskrift, som i øvrigt skal være unik, være tagget med <h1>. Underoverskrifter bør være tagget med <h2> under-under overskrifter <h3> osv.

Husk at alle sider, du ønsker indekseret af søgemaskinerne, skal have en god mængde tekst og at jo flere sider du har publiceret, desto flere søgeord kan du ranke på.

Website hastighed

Den er altså ikke til at komme udenom længere – website hastigheden.. Hvor hurtigt dit website er, er efterhånden en meget udslagsgivende faktor for, om du ranker godt i søgemaskinerne. Men hastighed er ikke kun, hvad du kan se med det blotte øje. Du kan sagtens opleve, at et website fungerer fint, og loader i et tempo, som du synes er acceptabelt. Men det er ikke kun for din skyld, det skal være hurtigt. Vigtigere er det sådan set, at søgemaskinerne synes det – især Google.

Du har rigtig gode forudsætninger for, at finde ud af præcis, hvor du skal sætte ind, for at optimere hastigheden på dit website,ved at bruge Googles eget værktøj til måling. Det er vigtigt, at du bruger netop dette værktøj, da det viser nøjagtig, hvordan Google ser dit site ift. hastighed.

Glem, at nå helt til tops..

Du bør dog ikke stræbe efter at få 100 ud af 100 i denne test, da det stort set er umuligt. Det komiske i det er rent faktisk, at det er scriptet for Googles eget værktøj, Google Analytics, der blokerer for vejen til at nå de 100 i score. Du bør dog stræbe efter at komme op i det grønne felt, hvor du skal nærme dig en score omkring de 90 – og det kan lade sig gøre.

Omvendt kan det også lade sig gøre at kludre godt og grundigt i det, og få den absolut laveste score, som websitet herunder har. En score jeg dog kun har set dette ene tilfælde af.

hastighedsmåling pagespeed insight

Så hvis du ikke allerede har gjort det, så synes jeg at du bør få testet dit websites hastighed. Og er du i tvivl om, hvordan du får dette forbedret, er du velkommen til at give mig et ring.

Jeg kan anbefale dig at bruge 2 værktøjer: Googles eget, pagespeed insights og som det andet, pingdom tools. Det første fordi, det er den måde Google ser dit site på, og derfor ud fra dette, du bør optimere dit website – hvis du altså gerne vil ranke godt i Google. Det andet fordi, det er et mere objektivt værktøj, der giver et mere transparent billede af, hvor på sitet du bør sætte ind, i forhold til hastigheden.

Duplicate content

Duplicate content eller duplikeret indhold handler om præcis det, som det ordene siger: indhold, der er duplikeret. Her kan du altså komme virkelig galt afsted, hvis ikke du holder tungen lige i munden og sørger for at AL tekst på dit website er unikt.

Duplicate content kan dog opstå på rigtig mange måder, og jeg kunne aldrig finde på at bebrejde folk for ikke, at have 100% styr på dette. Jeg vil herunder komme med nogle eksempler på Duplicate content og hvordan de kan løses.

Tekst fra andre websites

Den første er ret nem. Hvis du i dag er en af dem, der har “lånt” tekst fra et andet website og kopieret det direkte over på dit eget, er løsningen ganske enkelt, at du skal lade være. For ud over, at det kan få et retsligt efterspil ift. ophavsretskrænkelse, vil det med stor sandsynlighed også få negative konsekvenser for dit websites tilstedeværelse i søgemaskinerne. Findes den samme tekst flere steder, på flere websites, er søgemaskinerne nemlig nødt til at give en, og kun en, titlen som den primære kilde til indholdet. Og er det ikke dig, ender du i problemer.

Samme tekst flere steder, på samme website

Ikke nok med, at du ikke må kopiere tekst fra andre websites, må du heller ikke kopiere tekst internt, på dit eget website. I hvert fald ikke, hvis du ønsker begge sider indekseret. Gør du det, vil det blive betragtet som Duplicate content, og du vil med stor sandsynlighed ikke få siderne indekseret i søgemaskinerne.

Hvis du absolut mener, at det ikke kan være anderledes, og at teksten skal gå igen på flere sider, stiller du dig selv i et enormt uheldig situation. For selvfølgelig er der måder, hvorpå du kan forsøge at mindske problemets omfang. I et sådan tilfælde som dette vil du 1: kunne udelukke dine sider fra indeksering med et META-robots-tag kaldet NOINDEX. Dette ser således ud:

<meta name=”robots” content=”noindex”>

Eller 2: Benytte CANONICAL-tag, der peger på den primære og oprindelige version af indholdet. Dette tag ser således ud:

<link rel=”canonical” href=”http://eksempel.dk/den-primære-version”/>

Canonical gør sig ligeledes gældende hvis du har sorteringssider. Lads os sige at du sælger sko, som kan fås i flere farver. Det afgørende er så, om du får vist en ny URL, når vælger du en ny farve under produktet. Gør du det, bør disse sorteringssider håndteres med CANONICAL-tag, så de peger på een primær variant.

Forskel på sortering og paginering

Det er naturligvis åbenlyst, at sortering og paginering ikke er det samme. Men hvad der er knap så åbenlyst, er den metode, du sal bruge for, at undgå duplikeret indhold. Her er der nemlig ikke tale om, at du skal bruge CANONICAL, men derimod rel=next/prev, så søgemaskinerne forstår, at der er tale om en slags katalogvisning med paginering. rel=-tagget skal indsættes på alle sider, undtagen den primære, altså forsiden for “kataloget”. Tagget ser således ud:

<link rel=”prev” href=”http://www.example.com/article?story=abc&page=1″ />

<link rel=”next” href=”http://www.example.com/article?story=abc&page=3″ />

Du kan med fordel læse denne guide, fra Googles egen blog, som bekriver emnet rigtig godt.

Der er ingen garanti for, at ovenstående virker efter hensigten. Jeg kan konstatere at have oplevet, at søgemaskinerne ikke altid respekterer ovenstående tags. Canonical mm. må derfor betegnes som værende en nød-/lappeløsning

Tynd indhold

Der findes ikke noget værre, end at møde noget indhold, som ingen værdi giver – sådan har søgemaskinerne det også. Derfor er det nu din ubetinget vigtigste opgave, at skrive mindst 300 unikke ord, for ALLE sider, du ønsker indekseret i søgemaskinerne, og som dermed må formodes at være en del af din SEO-strategi. Og jeg gentager: det er ALLE sider – ALLE produkter, ALLE kategorier og ALLE andre sider, søgemaskinerne har adgang til.

Men tyndt indhold er ikke kun mangel på indhold. Det er i lige så høj grad autogeneret indhold eller indholdsfarme. Faktisk hed Google Panda “farmer-update”, da den kom til verden i februar 2011.

Men du må og kan såmænd sagtens have sider på dit website, som kun har ganske lidt indhold. Du skal bare sørge for, at disse er udelukket med enten NOINDEX eller Disallow. NOINDEX skrives på følgende måde: <meta name=”robots” content=”noindex”>. Men, hvis der er tale om større sektioner på websitet, vil jeg anbefale at du udelukker disse via robots.txt, som du kan læse ere om herunder.

Disallow i robots.txt

De fleste, hvis ikke alle sites, bør have en robots.txt-fil liggende. Denne bør ligge her: www.dit-domæne.dk/robots.txt. Med denne fil har du mulighed for, at udelukke bl.a. hele folders fra at blive crawlet af søgemaskinerne. Du bør som regel altid udelukke dine søgeresultatsider, da disse er et udtryk for tyndt indhold, som vi ikke ønsker at søgemaskinerne skal tillægge værdi. En enkel måde at gøre det på, at ved at lægge søgeresultaterne i en folder for sig, f.eks. /soeg/. For at udelukke disse resultater, skal det sættes således op i din robots.txt fil:

User-agent: *

Disallow: /soeg/

Off-page SEO

Med Off-page SEO, som er det andet overordnet emne for optimeringsarbejdet, og som i følge det periodiske SEO-system dækker flere faktorer, er det især det udefrakommende, der afgør mængden af success. Det er altså emner som autoritet, engagement, historik, land, lokalitet og socialt omdømme, der tæller. Lad os prøve at gennemgå nogle af dem herunder.

Autoritet

Autoritet er ofte et spørgsmål om links. Et link til dit website, kan tolkes som en stemme – præcis som til et folketingsvalg: den, der får flest stemmer vil i en eller anden grad vinde, og opnå den største autoritet. Så når du linker til et andet website, kan man sige, at du stemmer på det, hvilket, isoleret set vil sige, at den med flest links er den mest autoritære og dermed vinderen. Men, links kan, som ingen af de andre parametre, stå alene.

Selve autoriteten kommer dog ikke kun fra mængden af links – langt fra.. Det er i den grad af stor betydning, hvem der linker til dig. Med andre ord: der er forskel på at få et link fra den lokale blomsterhandler, der lige har fået en hjemmeside, til at få et link fra www.huffingtonpost.com. Ganske enkelt fordi, www.huffingtonpost.com har mere autoritet.

Linkbuilding

Du kan læse og lære mere om links og linkbuilding her.

Geografi og sprog: TLD og ccTLD

For at gøre det simpelt, vil jeg sige, at der grundlæggende findes to former for hjemmesider, når det kommer til sprog. De generelle, som kan håndtere alle sprog (.com .eu m.fl.) og de landespecifikke, der bør håndtere det sprog, defineret af endelsen. F.eks. skal et .dk-domæne være på dansk, et .se-domæne på svensk, et .de-domæne på tysk osv.

Dermed ikke sagt, at du ikke kan have flere sprog på et website. Er det din intention, bør du lige stoppe op, og rådføre dig med en specialist – for det kan få fatale konsekvenser for dit websites synlighed i søgemaskinerne, hvis det ikke implementeres korrekt. Derfor har jeg skrevet et indlæg om emnet. Du kan læse det her.

Engagement af dine brugere (user engagement)

Et andet off-page element, der tæller meget i det store billede, er user engagement. User engagement er den måde, som brugerne engagerer sig i dit website på. Ud fra deres opførsel på sitet, få du en masse data, du kan bruge i dit optimeringsarbejde – data, der har direkte indflydelse på dine rankings. User engagement dækker over data som f.eks.:

  • Antal sessioner
  • Time on site (hvor længe brugerne er på sitet)
  • Bounce rate (om brugerne forlader sitet med det samme igen (et bounce))
  • Page views (hvor mange sider, brugerne ser
  • CTR (click through rate: antal eksponeringer vs. klik til websitet)

White- Grey- eller Blackhat SEO: Et etisk spørgsmål..

Search Engine Optimization for web SEO White HatEn SEO-arbejder kan så at sige vælge imellem flere hatte. Optimering efter bogen omtales som whitehat SEO og er den “lovlige” form for optimering. Mange tager greyhat SEO med under den kategori. Den sidste hat er blackhat SEO. Dette er den “ulovlige” form for SEO, det vil sige ulovligt i søgemaskineregi og dermed Google’s retningslinjer, men ikke i strid med straffeloven.

SEO indebærer konstante afprøvninger, eksperimenter og ikke mindst forbedring. Husk, selvom SEO typisk er en af de markedsføringsinvesteringer med det højeste afkast, er selve målingen af succes stadig afgørende for processen. Der er mange såkaldte eksperter derude, så man skal træde meget varsomt, hvis man skal ud og købe SEO. Søgemaskinerne er konsekvente, og det kan koste dyrt, hvis ikke det bliver gjort ordenligt.

Nogle uetiske firmaer har givet branchen et blåt øje gennem deres alt for aggressiv markedsføring, og deres forsøg på at manipulere søgemaskinernes resultater. Overtrædelse af søgemaskinernes retningslinjer, kan resultere i en negativ regulering af dit websteds tilstedeværelse i søgemaskinerne, eller endog fjernelse af dit websted fra deres indeks.

Det var lidt om SEO, hvordan det fungerer og hvad du bør være opmærksom på. Har du brug for hjælp til SEO er du velkommen til at kontakte mig via min kontaktformular. Derudover har du mulighed for at kontakte firmaet Bondtofte & Co., hvor jeg er ansat. Her har vi flere specialister siddende klar til at hjælpe dig.

SEO
4.9 (98.05%) 41 votes