Lad os sige, at jeg har en standardudgave-webside med 500 - 600 ord, og jeg primer min side til to specifikke nøgleord (med henblik på dette eksempel). Vi ved, at disse ord skal vises inden for konteksten af ​​siden, men hvor mange gange skal de bruges i brødteksten? Hvor mange gange er der for mange? Hvor få er for lidt? Gør det endda nogen forskel mere? Konventionelt har jeg lært og brugt 2 til 7% tæthed, og jeg har typisk set SEO-organisationer bruge ca. 4% tæthed til to ordsætninger.

Hvis jeg vil have, at denne side skal klare sig godt i søgemaskinerne, hvad er de bedste fremgangsmåder i forhold til densiteter? Hvilke strategier har arbejdet for dig i projekter i den virkelige verden?

Generelt nøgleordstæthed betyder noget til Google-rangering kan du nemt teste det ved at oprette to identiske sider, der er indekseret nøjagtigt en gang fra den samme side (bare for at fortælle Google, at de findes og indeksere dem). Derefter placerer du træk / tre gange mere nøgleordet / nøglefrasen end i den anden. Du vil se, at den første vil rangere højt måske kun en position, men stadig høj.

Nøgleordstopning betyder IKKE noget i min egen erfaring, og selvom det betyder noget, er det dårlig SEO-praksis, så det kan resultere i at straffe dit websted, hvorfor risikere det ?!

  • +1 Et pragmatisk svar. Selvom mit originale spørgsmål ikke var at spørge, hvordan man skulle søgeordsting. Alle ved, at det er spild af tid.

Søgeordsfyldning er blevet misbrugt så meget, at Google vil straffe websteder, hvor søgeord gentages for meget, sporing af søgeordstæthed er ikke ubrugelig - det er faktisk skadeligt.

  • De mest værdifulde placeringer på siden er sidetitlen og h1-tagget - sørg for at bruge nøgleordene der.

  • Gentag nøgleordene i sideteksten måske 2-3 gange mere.

  • Brug synonymer - dette forhindrer både Google i at straffe dig for nøgleordstopning og giver dig flere "lange hale" -søgninger.

  • Skriv til mennesker ikke til søgemaskiner - når alt kommer til alt er det pointen med at få nogen til webstedet at få den person til at foretage sig noget - bliv ikke så besat af SEO, at du glemmer det (SEO-tung tekst vil sandsynligvis få folk til straks at nå tilbage-knappen)

  • 5 Dit sidste punkt er det mest vitale. Forsøger at skovle nøgleord på steder, de ikke er ønsket, fører til frygtelig skrivning og indhold af lav kvalitet.
  • 3 @BradB: Hvis du begynder at være den mindste opmærksom på nøgleordstætheden, er du allerede nøgleordstopning. Bare skriv naturligt, og relevante nøgleord vises på siden fra god skrivning.
  • 2 @BradB: At skrive naturligt er at skrive indhold til brugere, ikke søgemaskiner, og ikke tænke på ting som nøgleordstæthed. Hvis du bare skriver godt indhold (eller ansætter en ekstraordinær forfatter til at skrive ekstraordinært indhold), har du en "naturlig" nøgleordstæthed. Jeg mener, hvis Google gør foretrækker en ideel nøgleordstæthed, hvordan tror du, de ville nå frem til disse tal? Sandsynligvis ved at finde den mediane nøgleordstæthed på sider med indhold af høj kvalitet. Så der er ingen mening i at forsøge eksplicit at "optimere" din søgeordstæthed.
  • 2 @BradB - skrivning skriver naturligvis ikke for at tilfredsstille statistikker, søgemaskiner søger efter nøgleordstopning (blandt andet) og filtrerer "dårlige" sider ud, algoritmerne er hemmelige, og ingen her kender den nøjagtige formel. den bedste måde at undgå disse sanktioner er at skrive den side, du vil have din kunde / bruger / læser til at se efter ankomsten til stedet, og ikke at skrive siden til søgemaskiner (selvfølgelig skal du dække det grundlæggende som titler og h1)
  • 2 @BradB: Der er en enorm industri, der laver SEO, men ikke med at optimere søgeordstætheder. Faktisk sigter de fleste førende SEO-firmaer (fx SEOmoz) ikke mod en bestemt søgeordstæthed og modvirker brugen af ​​den som en SEO-måling. For det andet, hvad er din besættelse af mikrooptimeringer? Er det sådan, at du ikke kan generere kvalitetsindhold? Eller måske føler du, at mikrooptimeringer, der ikke giver brugerne nogen værdi og negativ indvirkning på indholdskvaliteten, er tegn på en ægte SEO?

Søgeordstæthed er tæt på irrelevant, hvilket fremgår af succesen med den såkaldte Google-bombning på tværs af de fleste større søgemaskiner - links (og links 'ankertekst) betyder mere end indhold på stedet det gør ikke ondt at bruge de søgeord, du vil rangere efter, på tværs af dit websted, men densiteten er langt mindre vigtig end indgående links.

  • 1 Google har foretaget mange ændringer for at tackle Google Bombing, og det er ikke så udbredt som det engang var.
  • @DisgruntledGoat - Efter alt at dømme (og som antydet i den linkede Wikipedia-artikel) korrigerer Google bomber fra sag til sag. For eksempel: google.com/…
  • 1 Google-bombe-løsningen ser ud til at være algoritmisk, da George Bushs webside dukkede op igen som nr. 1 "elendig fiasko", efter at ordet "fiasko" dukkede op på den igen.
  • 1 @John_Conde - Enten fungerer min kaffe ikke, eller noget gik tabt i oversættelsen - kan du præcisere, hvad du mener? Hvordan kom du til den beslutning, at Google filtrerer algoritmisk efter bomber? (... og hvordan forklarer det "franske militære sejre" som en aktiv Google-bombe?)
  • 1 Der er et blogindlæg om vores algoritmiske håndtering af "Google-bomber" på googlewebmastercentral.blogspot.com/2007/01/… - men alt i alt synes jeg "Google-bomber" ikke rigtig er relevant for et spørgsmål om søgeordstæthed: ). Med hensyn til nøgleordstæthed, som nævnt af @DisgruntledGoat, er det ikke rigtig noget, der er værd at fokusere på.

Her er en opdateret visning for 2014 med en kort historisk forklaring.

I de tidlige dage af søgemaskiner ser Google ud til at være i fokus her, og så jeg vil tale til Google, metoderne til at bestemme webstedet og sideemnet var at evaluere flere ting fra linkene til en side, title tag, header tags primært h1 tag, i en periode description metatag, og indholdet især den øverste omkring 200k (eller så vidste ingen virkelig med sikkerhed) af tekst til ledetråde. Senere blev hele teksten undersøgt. Den eneste virkelige mekanisme var at måle antallet af ord, der blev fundet på en bestemt side og HTML-elementer og veje dem i overensstemmelse hermed for at bestemme et emne ved at genkende ord, sætninger og knytte dem til andre anvendelser for at identificere emnet. Med dette blev vægten af ​​det formodede emne vejet ved hjælp af den bogstavelige optælling af de genkendelige emneord og sætninger. Men da Google brugte maskinlæringsmetoder, ville alt, hvad der ikke er let genkendeligt, i det mindste simpelthen blive vejet med antal ord. Dette var en god metode i en periode.

Så kom de forskellige metoder til spil dette system.

I 2008 med introduktionen af ​​Scholar indså Google værdien af ​​citater og begyndte at anerkende styrken af ​​skjulte forbindelser i dokumenter, der ikke blev genkendt før. Dette forårsagede et skift i, hvordan Google i sidste ende ville genkende emner og værdi af indholdet. Som det eksisterede, blev Scholar flyttet ind i de almindelige Google-algoritmer, og et skift fra traditionel vægtning til noget mere analytisk med fokus på relationer og genkendelige mønstre i sammenhæng begyndte at tage form. Dette var en proces, der udviklede sig og forbedrede sig markant gennem en række år.

Der er et argument om, hvorvidt nøgleordstæthed nogensinde virkelig var en faktor, hvilket hævede forestillingen om, at nøgleordstæthed var en myte. Begge sider af argumentet havde fortjeneste. I et stykke tid var det nødvendigt at opretholde en vis nøgleordstæthed for at konkurrere, men for meget tæthed var 1: let genkendt for hvad det var, og 2: modproduktiv udbytte med for lidt gevinst, hvis nogen. Det magiske tal er naturligvis blevet argumenteret. Hvis et nøgleord opnår en passende tæthed for korrekt at blive anerkendt som værende, vil det variere radikalt afhængigt af antallet af ord på siden og efterlade åben spekulation om, hvilken tæthed der var optimal for ethvert ord. Faktum var, at for ethvert ord at opnå den anbefalede procentvise tæthed (ifølge SEO-eksperter på det tidspunkt), ville ordet skulle bruge et uhyrligt antal gange. Jo længere siden er, jo mere latterligt skal antallet af ord være.

Men nu er spillet ændret.

Efter meget optjent kritik og nogle, der ikke var så fortjente, fandt Google, at det var en måde at fjerne søgeordstæthed som en faktor, selvom nogle elementer i den oprindelige algoritme ser ud til at være velkendte.

Søgeordstæthed er ikke længere en faktor, selvom søgeord forbliver vigtige. I stedet for tæthed, brug af nøgleord i links, title tags, h1 tags (såvel som andre header-tags), og hele indholdet er blevet vigtigt. Men fordi citeringsindeksering er mere udbredt og har modnet til en så høj tilstand, kræves der nu en mere naturlig skrivning af indholdet. Hvert ord evalueres i sammenhæng med andre ord, nogle ved nærhed og andre ved relationel ord / sætning indeksering, så emnet og værdien af ​​en side kan bestemmes bedre, hvis og kun hvis indholdet blev skrevet til at blive læst af mennesker og ikke vurderet af maskiner. Google flyttede fra at evaluere indhold som en maskine udelukkende med matematiske algoritmer til at evaluere indhold tættere på, hvordan mennesker faktisk vurderer indhold, som var målet. Kort sagt, i disse dage, selvom du skulle slippe af med det, har nøgleordstæthed faktisk ikke noget sted i, hvordan indhold evalueres længere. Sikker på, at der er nogle gotchas og bump langs vejen. Intet system er perfekt. Men det forbedrer sig.

arbejdet for dig: Charles Robertson | Ønsker du at kontakte os?