Web Analytics fri software - Få SEO IQ Web Spy Tool gratis i dag!

Mine websidesider får 8 til 10 gange trafik fra bots end fra ægte brugere. Jeg ser næsten 90 forskellige bots i mine logfiler. De er alle "gode bots" pr. Definition. For det meste søgemaskine-crawlere, seo-indeksatorer som ahrefs og digitale annoncenetværk. Mit problem er prisen. Jeg bruger Google Maps og Places API'er og opkræves en enhedspris pr. API-opkald. Jeg ved, hvordan jeg blokerer robotter fra gennemsøgningssider, og det er 100% vellykket for mig, ligesom min evne til at blokere dem for at foretage opkrævede API-opkald.

Det spørgsmål, jeg har, er hvad er SEO-virkningen af ​​at nægte en bot fra at se indhold leveret af API'erne? Jeg præsenterer placeringsdata for tekstrestauranter hentet fra Google Places og Yelp Fusion og viser placeringer på et integreret Google Map.

Jeg overvejer at implementere en strategi, der kun tillader udvalgte søgemaskine-bots at ramme API'erne. Skal jeg gøre dette, eller kan jeg bare servere et generisk kortbillede og dummy restaurantplaceringsdata til bots uden SEO-straf? Jeg viser en side for hver restaurant med adresse, by, stat, postnummer og telefonnummer hentet fra Google Places eller Yelp Fusion API. Yelp er gratis, men jeg overskrider deres kvote, hvis jeg opfylder alle botanmodninger.

  • Er JavaScript-API'erne, eller er de serversiden? Hvis de er JS-baserede, udfører de fleste bots dem ikke. Ud af alle bots implementerer kun Googlebot nok JS til at bruge din API, hvis den er JS-baseret.
  • Alle mine API-opkald er på serversiden. Interessant nok ekskluderes bot-trafikken 100% af Google Analytics, og en høj procentdel af den tælles ikke af Google Maps API. Jeg har ikke gravet ind i hvilke robotter der tæller eller ej.
  • Google Analytics-sporingssporing er JavaScript-baseret, så det er ikke overraskende, at de fleste bots bliver ekskluderet fra GA.

ja, det ville være en rigtig strategi at kun tillade top-søgemaskine-bots til gennemsøgning og indeksering af dine websider.

Jeg har brug for få flere input til din forespørgsel om 'generisk kortbillede og dummy restaurantplaceringsdata'

Mente du at have dynamiske data for hvert sted?

Jeg vil foreslå at have statiske sider (med unikke side-URL'er) for hver placering med relevante restaurantdata.

Hvilket kan adskilles efter: placeringer, kategorier & underkategorier, vurderinger osv.

Derudover kan du udløse API-opkald baseret på brugerhandling

Som en CTA-knap til at foretage API-opkald, hvis det er muligt

  • Roshan: Jeg har en dynamisk genereret side for hver restaurantplacering, der er omkring 150.000 i min db. Der vises et Google-kort sammen med restaurantens adresse og telefonnummer. Appen kræver ingen andre data. Restaurantoplysningerne hentes ved hjælp af Google Places API. Deres servicevilkår specifikt og eftertrykkeligt tillader ikke lagring af data, statiske sider ville ikke være en mulighed. Jeg foreslog at servere generiske og dummy-data til bots i stedet for at foretage et API-opkald, så i det mindste sidelayoutet ville være det samme. Din CTA-idé fungerer efter en anden udfordring, jeg har. Tak.

arbejdet for dig: Charles Robertson | Ønsker du at kontakte os?

nyttige oplysninger