Top 7 fejl Nybegyndere gør solen gående - Undgå disse for effektiv krafthøstning fra solen

  • Jeg tilføjede min url til Google http://www.google.com/addurl.html

  • Jeg tilføjede et metatag med beskrivelse og nøgleord

  • Jeg tilføjede det i Googles webmasterværktøjer og indsendte sitekortet

  • Der er ingen robotter på mit websted

Men når jeg opretter sitemap.xml automatisk med http://www.xml-sitemaps.com/ eller andre værktøjer, finder de ikke alle siderne!

Er der bedre værktøjer, hvordan kan jeg løse problemet?

  • 1 [Dette er to spørgsmål forresten; prøv at holde tråde til et enkelt emne.] Hvor længe har du ventet efter at have oprettet / indsendt dit websted? Det er ikke automatisk. For det andet afsnit om dit sitemap, se dette forrige spørgsmål.
  • Bruger du et CMS-lignende wordpress?
  • Og husk, metaoplysninger er enten helt forældede eller moderat forældede. Som John antydede, er kvalitet, relevante backlinks fra kvalitet, relevante mapper og websteder den største regel i SEO. Se mit indlæg her for mere information webmasters.stackexchange.com/questions/23810/…

Du laver de rigtige ting. Fortsæt det gode arbejde, og bliv ikke for antsy. Hvis du gjorde det rigtigt, kommer googlebot. I mellemtiden overveje dette gratis produkt: http://www.vigos.com/products/gsitemap/ ... Jeg er ikke annoncør for dem. Jeg bruger bare produktet.

Det genererer et perfekt sitemap. Du bliver nødt til at foretage nogle manuelle justeringer, når den er afsluttet, og slette ting, du ikke vil have edderkop. Forstå også Google Sandbox. Her er en SEO-artikel, jeg skrev et stykke tid tilbage:

Problemet: Jeg hører mange mennesker spørge, hvorfor de ikke er opført på Google endnu, og jeg ville gerne tilbyde et indlæg, der rydder forvirringen af, hvorfor dette sker. Der er ingen tvivl mere om eksistensen af ​​Google Sandbox, der opstod i marts 2004 i et forsøg på at klemme ned på blandt andet spam-websteder.

Symptomerne: Dybest set, hvis dit websted er relativt nyt, og du rangerer i Yahoo, MSN og andre, men ikke Google, er du fanget i "Google Sandbox", som der henvises til i andre udtryk som "Google Time Delay" "eller" Google Age Delay ". De fleste henviser dog til det som "Google Sandbox".

Hvad er "Google Sandbox"? Dette er en prøvetid, hvor dit websted tjekkes ud. Googlebot indekserer dit websted, men viser dig ikke med det samme. Gå ikke i panik! Ting vil være okay, selvom der virkelig ikke er noget, du kan gøre for at komme ud af sandkassen eller undgå den. Nogle mennesker vil foreslå at placere dit websted på et underdomæne i et gammelt betroet domæne og derefter oprette en 301-omdirigering til dit nye websted, når google har indekseret underdomænet.

men ved oprettelse af sitemap automatisk med dette websted http://www.xml-sitemaps.com/ og andre når det ikke alle sider!

Jeg antager, at spørgsmålet er: "Hvorfor indekseres ikke alle sider på mit websted af søgemaskinerne (eller specifikt Google)?

Bare fordi du sender dit websted til søgemaskinerne eller leverer et XML-sitemap, betyder det ikke, at alle dine sider garanteres at blive gennemgået og / eller indekseret eller inkluderet i deres søgeresultater. Ved at underrette søgemaskinerne på dit websted og alle dine tilgængelige sider giver du dem mulighed for at finde og gennemgå dit indhold. Men de har det sidste ord om, hvorvidt de skal medtage, og hvordan man rangordner dit indhold. Den bedste måde at påvirke dette på er at få kvalitetslinks til at pege på dine sider (både din startside og interne sider). Jo højere kvaliteten af ​​linkene er, jo flere sider bliver du indekseret, og jo bedre rangordnes de. (Og for at tage det et skridt videre, hvis du gør et godt stykke arbejde med dine interne links, kan dine velrangerede sider hjælpe med at støtte andre sider på dit websted).

  • Google finder nogle sider på et websted uden relevans og nægter at indeksere dem. Som John påpeger, skal du overveje linkstrukturen til og indholdet på disse sider. En ting, der kan forårsage dette, er at have for dyb en linksti, disse sider betragtes som interne supplerende oplysninger til deres overordnede side, og hvis det er det eneste link, ses det muligvis ikke som relevant søgefoder.
  • Gode ​​tip, men det lyder mere som om han siger, at sitemapping-værktøjerne ikke når alle sider. Dette er tegn på brudt intern linkstruktur. Der er løsninger med andre sitemapgeneratorer (såsom et sideprojekt fra nogle Google-udviklere, der overvåger brugertrafik i stedet for at gennemgå webstedet), men det er stadig bedre at rette den interne linkstruktur, så alle sider kan crawles, hvor sider med højere prioritet tager mindre klik for at nå end mindre vigtige.

Der skal være links til siderne et eller andet sted på dit websted. Sitemapgeneratoren starter ved roden og følger alle links på siderne og så videre, indtil den har opbrugt alle links. Hvis der ikke er nogen links til siden, kan den ikke findes.

Du kan manuelt tilføje poster til XML-filen for at oprette et komplet sitemap.

Alternativt kan du oprette en statisk side på dit websted med linkene, så sitemapgeneratoren kan finde dem, hvis der ikke er nogen reel grund til at linke til dem.

txt-fil via Google webmasterkonto og placere den i roddomæne. Det gør det muligt for Google-crawlere at spider dit indhold, og hvis du bruger CMS, kan du oprette XML-sitemap med nogle tilgængelige plugins.

Prøv Xenu's Link Sleuth, det er et meget bedre værktøj end xml-sitekort og kan generere linklister til sitemap-stil.

Det er 2012, du behøver ikke at indsende dit websted til søgemaskiner. Google er registrator og ved, hvornår nye websteder er registreret. Hvis de beslutter at kravle dig, er det en anden sag.

Google lægger ikke mærke til meta-nøgleord og ændrer ofte meta-beskrivelsen, de viser i søgeresultaterne baseret på den udførte søgning.

Det er godt at kontrollere dit websted og indsende sitemaps. De fleste gratis værktøjer til generering af sitemap har begrænsninger.

Hvis du ikke bruger et CMS med et indbygget værktøj til generering af sitemap, er $ 19,99 for den ubegrænsede version af http://www.xml-sitemaps.com/standalone-google-sitemap-generator.html det værd. Det vil gennemgå alle dine sider.

Hvis du har sendt et sitemap til Google, og du ikke blokerer robotter. Så er der ikke noget problem. Kort sagt skal du være tålmodig og vente på, at Google gennemgår, indekserer og cache dine websidesider.

arbejdet for dig: Charles Robertson | Ønsker du at kontakte os?