10 iPhone-indstillinger, du skal ændre lige nu

Jeg har uploadet et sitemap til min webapplikation. Webmastere har hidtil indekseret 10% af alle webadresser i sitemap og markeret de resterende som ekskluderet (opdaget ikke indekseret). Jeg har foretaget nogle ændringer i appen, der har resulteret i nogle nye webadresser og nogle duplikerede webadresser til det samme indhold. Nu vil jeg opdatere mit sitemap, så det inkluderer de nyeste URL'er, mens jeg bevarer de URL'er, der hidtil allerede er indekseret, jeg har følgende spørgsmål:

  1. Hvad er SOP / bedste praksis for at opdatere sitemap med ændrede og nye URL'er?
  2. Skal jeg beholde det ældre sitemap og uploade et andet sitemap med de seneste ændringer og beholde flere sitemaps ELLER skal jeg erstatte det ældre med det nyere sitemap?

  3. Hvis jeg opbevarer flere sitemaps, hvad sker der med de webadresser, der findes i begge sitemaps og allerede er indekseret fra det ældre sitemap? genbruger google automatisk indekset eller ej?

  4. Hvis jeg udskifter sitemap, hvad sker der med de URL'er, der er duplikater (forskellige URL'er, samme indhold) af en hvilken som helst URL fra det forrige sitemap og tidligere blev indekseret? Genbruger google indekset ELLER taber det indekset og tilføjer den nye URL til køen til indeksering?

  5. Hvordan omdirigerer 301/302 effekter rangordning af siden?

Mens jeg er en enorm fortaler for denne strategi og har brugt den i flere år nu, tror jeg, at resultaterne bliver muddied lidt op.

Hvad jeg tror er underforstået er, at flere XML-sitemaps vil føre til bedre indeksering, hvilket resulterer i stigende trafik end et enkelt XML-sitemap. Jeg tror, ​​det kan være en strækning, og at lignende resultater kan opleves fra et enkelt XML-sitemap.

Hvad jeg ville være mere tilbøjelig til at tro er, at webstedet muligvis har haft lav indeksering før XML-sitemaps. Oprettelse og indsendelse af sitemaps (ethvert sitemap) aktiverede sider, der muligvis tidligere er blevet udfordret til at blive fundet og indekseret til nu at blive indekseret. Forudsat at det var kvalitetssider med godt indhold, formoder jeg, at der har været en stor stigning i henvisningsord, der førte trafik til webstedet, og sandsynligvis en stor stigning i "ikke-mærke" og longtail-søgesætninger.

Jeg er dog stadig enig i, at dette er en god teknik, hovedsagelig på grund af det ekstra rapporteringsniveau, som Google leverer. Mens det stadig skal tages med et saltkorn, rapporteres denne som et engangsbeløb:

sitemap.xml 40.000 ud af 75.000 webadresser indekseret

er langt mindre nyttigt end:

maincontent.xml 98 af 100 webadresser indekseret

support.xml 20.800 ud af 25.000 webadresser indekseret

products.xml 5.200 af 50.000 webadresser indekseret

etc.

Pointen er, at indekseringsforholdet products.xml ville være alarmerende og fortællende ... ikke fortælle os, hvorfor så få indsendte er blevet "rapporteret" som indekseret, men at disse webadresser ser ud til at have svært ved at blive indekseret.

Ideelt set hjælper et XML-sitemap med at omgå eventuelle gennemgangsproblemer (hvis der findes, er et XML-sitemap ikke en erstatning for at rette det), så hvis siderne stadig ikke indekseres, er det tid til at undersøge og forstå hvorfor?

blokeret via on-side eller robots.txt-direktivet mangler indholdsdublering af indholdssider har kanoniske linkelementer til andre sider sider er bag godkendelse, eller indhold er lav værdi / duplikat uden cookiesider omdirigeres osv.

Så vidt de brydes op, kan en træstruktur give mening, men der kan også være andre måder, baseret på sektionen af ​​webstedet eller typen af ​​indhold ... pointen er at gøre inddelingen logisk og nyttig.

  • Og hvad gør du, når du har brug for at opdatere sitemapet, lad os sige, at du har tilføjet nye produkter på dit websted og ændret URL'erne på nogle produkter, tilføjer du et nyt produkt-2.xml eller erstatter products.xml med de nyeste webadresser? mister du dine tidligere indekser under denne proces eller ej?

arbejdet for dig: Charles Robertson | Ønsker du at kontakte os?