Snydekommandoer til Dota2

Jeg læste meget om dette, men jeg er lidt forvirret, da det ser ud til at det ikke er en sort eller hvid ting. I nogle indlæg kan du læse, at jo flere backlinks jo bedre, og andre, der hævder det modsatte.

Jeg blokerer alt, hvad jeg kan, undtagen nogle vigtige bots som dem fra Google, Bing, Yahoo, Facebook, Linkedin osv.

Gør jeg det rigtigt, eller er det en helt dårlig praksis?

  • Hvad har backlinks at gøre med bots? Blokerer du også anmodninger, der har en ekstern henvisning?
  • @StephenOstermiller AFAIK nogle webcrawlere (de fleste af dem?) Bygger kort over links på deres websteder eller tilføjer din webstedsinfo ... Jeg mener, de behandler oplysningerne og præsenterer dem på deres egen hjemmeside, der genererer backlinks. I søgekonsollen kan jeg se tusindvis af links fra andre websteder med god DA, og jeg tror, ​​at den eneste måde, de kunne linke til min hjemmeside er at gennemgå det. Jeg er ikke sikker på, at disse backlinks er gode eller dårlige for Google og de fleste søgemaskiner.
  • @StephenOstermiller Jeg blokerer bots (med ModSecurity), der filtrerer efter brugeragent, ip, land (som Rusia, Kina osv.) Og andre kriterier, men jeg tror ikke, jeg blokerer brugeranmodninger.
  • 1 @Michaeld Vi bruger ModSecurity (i Apache) og flere regler for at blokere trafik afhængigt af forholdene. Det bruger Maxminds gratis database til at bestemme brugerland. Du kan godt bruge nogle Maxmind-implementeringer i din software.
  • 1 @Michaeld Afhængigt af det sprog, du bruger, kan du muligvis finde et passende SDK. Dette er hovedsiden for Maxmind: dev.maxmind.com, og her kan du downloade v2-databasen dev.maxmind.com/geoip/geoip2/geolite2 For eksempel kan du i PHP bruge den metode, der er foreslået her: php.net/ manual / es / book.geoip.php eller jus find en pakke i Packageist: packagist.org/?query=maxmind

Der er mange vellykkede websteder, der blokerer for alle bots bortset fra store søgemaskiner som Google, selvom de fleste websteder tillader bots at gennemgå.

Der er plusser og minus til at blokere alle ukendte eller lavt rankede bots.

Nogle bots kan blive voldelige og kan gennemgå dit websted for ofte og påvirke din serverydelse. Der er også bots, der ønsker at skrabe dit websteds indhold uden dit samtykke og ikke give dig nogen kredit eller links. Du har også bots, der forsøger at finde bedrifter i din servers sikkerhed, og med nok gennemgange kan de muligvis finde en, afhængigt af din opsætning.

På den anden side kan gode bots muligvis gennemgå dit indhold, offentliggøre dele af det på nettet, mens de linker tilbage til dit websted. Disse potentielle links kan naturligvis hjælpe din SEO meget.

Selvom det primært er vigtigt at være opmærksom på dit eget websteds trivsel, mens du beslutter dig for, hvilke bots der skal tillades, og hvilke du skal forbyde, er det værd at bemærke, at det er i Internets generelle interesse at lade ukendte og nye bots gennemgå dit websted. Dette skyldes, at der er gode bots derude, der prøver at gøre nye og spændende ting, og når nok websteder sortlister alle bots undtagen de store som Google, gør det nye bots og konkurrenter til søgemaskiner ude af stand til at komme ind på markedet, da de simpelthen kan ' t kravle nok websteder.

En generelt klog praksis er at reducere mindre bots fra at kravle for mange sider for hurtigt. Dette forhindrer dårlige bots i at forsøge at bryde dit websted, samtidig med at gode bots kan gøre deres ting. Du kan reducere bots ved at indstille en "Crawl-delay" i din robots.txt, der angiver, hvor mange sekunder en bot skal vente, før den indlæser en anden side. Hvis du finder ud af, at bots ikke adlyder gennemsøgningsforsinkelsen, når du ser IP-adresser i dine serverlogfiler, kan du blot forbyde IP-adressen. Hvis en bot ikke adlyder specifikationer for robots.txt-gennemgangsforsinkelse, betragtes det som en "dårlig bot".

  • Tak for din mening. Jeg blokerede manuelt så mange bots, at jeg har problemer, hvis jeg har (og vil) manuelt kontrollere, hvilken af ​​dem der er gode eller dårlige. Da vi har for mange websteder, kan jeg ikke tilføje tilpassede regler til robots.txt (det ville være en maratonisk opgave), så jeg er nødt til at finde en gennemsigtig løsning til dem alle.

arbejdet for dig: Charles Robertson | Ønsker du at kontakte os?

nyttige oplysninger