Ugentlig SEO Q&A - Hump Day Hangouts - Afsnit 15

Jeg har en idé om at bruge en (cc-by-sa) datadump fra et andet sted, hvor jeg vil eksperimentere med nye ideer. Dette ville stadig være et websted med næsten 99% af de samme data.

Jeg kan se to "regler", som søgemaskiner kan anvende

  • Dupliker ikke indhold
  • Send ikke forskellige data til bot og de almindelige besøgende

Links til det oprindelige websted vil være til stede som krævet af datadumpen.

Hvis kun titlerne og andre nye data vises til boten, ville det løse den første regel, men ville det være i strid med den anden? Eller skal jeg blot placere disse sider i et robots.txt-forbudt område? Ville dette gå for langt.

Jeg er ligeglad med rangordning, kun for ikke at blive forbudt. Det skal findes, hvis folk specifikt ledte efter alternative afstemningsordninger fra nyt indhold, som jeg genererer.

  • Hvorfor tror du, at denne fortolkning som duplikat ville være 'uretmæssig'?
  • Ja, teknisk set er det en duplikering, hvad jeg bad om var, hvordan man enten skulle undgå at blive fortolket som duplikat eller undgå duplikering fra at udløse et forbud.

Duplikatindhold er duplikatindhold. Ændring af afstemningsmekanismen betyder ikke noget. Det duplikerede indhold filtreres ud og gør dig ikke godt. Så vidt SEO går, er det spild af tid.

Og Internettet behøver ikke mere af det samme. Prøv at oprette nyt indhold. Det er hvad folk leder efter.

  • Jeg tror, ​​dette kan være en legitim brug af duplikatindhold, men du har ret; det er stadig duplikatindhold. Nogle SEO-sanktioner kan forventes, men ideelt set bør det ikke være at straffe webstedsejeren, men snarere at sikre, at SERP'er ikke indeholder duplikatposter. Så længe han gør sitet nyttigt (f.eks. Ved at forbedre stemmesystemet), så kan han stadig have en anstændig søgerangering, hvis folk kan lide siden og linke til det. Hvis du skal oprette et websted med legitime grunde til duplikatindhold (f.eks. Syndikerede nyheder, pressemeddelelser osv.), Skal du bare omgå det.
  • 1 IMHO bare at ændre stemmesystemet og bruge det originale indhold tilbyder ikke rigtig Internettet som helhed noget specielt eller nyttigt. Det lyder bare som piggy backing af en andens hårde arbejde for mig. Plus kerneindholdet er de data, der vil være uændrede. Jeg ser ingen grund til, at dette indhold nogensinde vises i søgeresultaterne. (Fjernelse af duplikatindhold er ikke en straf. Det er en smart måde at gøre søgeresultaterne renere og mere nyttige. Det er ikke nødvendigt at have det samme indhold igen og igen, især i tilfælde som denne).
  • Jeg forstår, hvad du mener om at gemme duplikatindhold, og jeg er for det meste enig med dig. Men der skal sondres (af søgemaskinen) mellem mennesker, der sender duplikatindhold, fordi de f.eks. Sender en pressemeddelelse fra et andet firma, og folk, der bare kopierer og indsætter artikler for at generere sider til en linkhjul eller at stjæle indhold til brug på deres spam-side.
  • Om dette er en legitim anvendelse eller ej, afhænger også af, hvor dårligt det nuværende stemmesystem er, og hvor meget bedre han kan gøre det. Hvis det er som alle Wikipedia-kloner derude, hvor det bare er en overfladisk layoutændring uden innovation eller merværdi, så sørg for at holde den ude af SERP'er. Men hvis dette websted implementerer et genialt og meget mere effektivt samarbejdsfiltreringssystem, fortjener det at blive indekseret, selvom datasættet ikke er unikt (tænk på alle mashups derude ved hjælp af CC-data på geniale nye måder).
  • 1 +1 John, jeg er helt enig. @eovleg - Selvom StackOverflow's indhold er tilgængeligt under en CC-licens, tror jeg virkelig, du vil spilde din tid på at klone det. Er indholdet værdifuldt? Ja, men hvad der er endnu mere værdifuldt er samfundet, og det er noget, du ikke let kan replikere. Hvad mere er, jeg tror ikke, at StackOverflow er så grundlæggende brudt, at der er behov for en klon med et andet stemmesystem. Jeg ville personligt ikke se nogen brug for det, og jeg tvivler på, at du finder nok mennesker, der gør det for at gøre det værd.

Kopieret indhold på to eller flere webadresser, selv på det samme domæne, er dårligt (og det kan give dig straf fra søgemaskiner). Kan du beskrive nærmere, hvorfor du nøjagtigt har brug for at kopiere indholdet.

  • Mit spørgsmål er generelt, hvor datadumpen kommer fra et sted, jeg ikke har kontrol over, men jeg kan lovligt hente og genbruge dets data. Mere specifikt tænkte jeg nu på StackOverflow-datadumpen.
  • AFAIK-håndtering af langt indhold giver dig problemer. Hvis du kun viser titel- og korte tekster (som en slags sammenlægning), skal dette være ok. Men hvis du håndterer alt indholdet, vil det være dårligt.

Du siger, at du ikke er ligeglad med rangordning - kun for ikke at blive forbudt. I så fald kan du opdatere din robots.txt-fil for at angive, at det duplikerede indhold ikke skal indekseres.

  • Indebærer dit svar, at det ikke er en mulighed at skjule duplikatdataene på websiderne på serversiden?
  • Nej, du kan helt sikkert skjule den duplikerede dataserver-side - ved robots.txt er sandsynligvis en lettere løsning.

arbejdet for dig: Charles Robertson | Ønsker du at kontakte os?