Excel-udskærere, der indeholder år og måned

Jeg har især bemærket en bot i vores logfiler, der omarrangerer forespørgselsparametre, når vi scanner vores websted. Dette fik mig til at tænke. Udløser tilladte omarrangering af forespørgselsparametre dobbelt sanktioner med indhold med legitime bots? Fordi teknisk set kan der være flere webadresser, der resulterer i identisk indhold på grund af dette. Eksempel:

https://example.com?te=one&tr=two&page=1 https://example.com?tr=two&te=one=page=1 https://example.com?page=1&te=one&tr=two https://example.com?page=1&tr=two&te=one https://example.com?te=one&page=1&tr=two https://example.com?tr=two&page=1&te=one 

Dette kan naturligvis gå længere afhængigt af hvor mange forespørgselsparametre der findes. Jeg har et lille script, der ikke tillader omarrangering af forespørgselsparametre (det udsteder en 404, hvis de indtaster forespørgselsparametre i den forkerte rækkefølge). Jeg er bare ikke sikker på, om jeg skulle bruge dette script til at udstede en 404, eller lave en 301, der peger på den rigtige rækkefølge url, eller bruge kanoniske tags, der peger på den rigtige rækkefølge url.

Tak, Todd

  • Bortset fra: Jeg skrev et "drop-in" script for nylig i et svar på StackOverflow for at omarrangere / sortere forespørgselsstrengparametre i Apache .htaccess (eller serverkonfiguration) via en 301-omdirigering. Ikke at du nødvendigvis skal gøre denne slags ting i .htaccess, men scriptet er let at implementere / udvide og fungerer naturligvis på tværs af hele webstedet, så det kan have sine anvendelser. Det ville også være trivielt at ændre det til en 404, hvis du ville.

Med hensyn til duplikeret indhold, så længe det korrekte kanoniske tag er indstillet til at matche den originale side, skal det være fint.

Når man siger det, er det bestemt ikke optimalt at have duplikerede sider med nøjagtigt det samme indhold på dem og derefter stole på det kanoniske tag for at få dig ud af problemer med det duplikerede indhold.

Med hensyn til omdirigeringsspørgsmålet, hvis side-URL'en (med eller uden forespørgselsparameteren) ikke rigtig eksisterer, skal den gå til en 404-side. Den sidste ting, du vil have, er masser af interne 301'er uden grund. Jo færre 301 du har på dit websted, jo bedre.

(Og hvis du er bekymret for den besøgendes oplevelse, der går direkte til en 404, skal du bare implementere et sitekort eller en menu på din 404-side for at hjælpe den besøgende med at vælge, hvor han skal hen).

Men det lyder også som lidt af en unik sag med dine forespørgselsparametre. Så du kan implementere en wildcard-omdirigering i htaccess, hvis disse webadresser helt sikkert skulle løse den ene side osv.

Kort sagt, hvis det ikke lykkes, ja. Google giver et godt overblik over problemer og løsninger, herunder det kanoniske linkelement.

Det andet spørgsmål, der skal overvejes her, er gennemsøgningseffektivitet. Det vil sige, at hvis en bot gennemsøger næsten ubegrænsede kombinationer og permutationer af parametre, kan den muligvis gøre det på bekostning af gennemsøgning af værdifulde, unikke sider. Dette administreres normalt med robots.txt. Denne introduktion fra Google er et godt udgangspunkt.

arbejdet for dig: Charles Robertson | Ønsker du at kontakte os?