TIL SALG 2008 FORD F-150 LARIAT !! 1 EJER !! STK # 110164A www.lcford.com

For to dage siden har jeg en e-mail med en advarsel fra Google Search Console, der fortæller mig, at der er 3 webadresser fra mit websted hvor indekseret, men blev blokeret af robots.txt.

Siden jeg første gang implementerede mit websted, har jeg ikke ændret robots.txt fil.

robots.txt

User-agent: * Disallow: /admin Disallow: /admin/ Disallow: /blog/search Disallow: /blog/search/ Sitemap: https://www.example.com/sitemap.xml 

Og det er disse sider, som jeg fik advarslen fra:

https://www.example.com/blog/slug-1 https://www.example.com/blog/slug-2 https://www.example.com/blog/slug-3 

Jeg tror alle er enige om, at disse sider er IKKE blokeres af min robots.txt fil, ikke?

Bemærk: Jeg har andre blogindlæg med andre snegle, og de er bare fine. Ingen advarsler ud over disse 3 webadresser.

Alligevel klikkede jeg på Fix Issues på Google Search Console, og de er i øjeblikket i pending stat.

Er dette sket med nogen før? Hvad kan være årsagen til dette?


OPDATERING:

Faktisk, jeg inspicerede lige en af ​​de 3 webadresser og fik denne:

Men da jeg klikkede på Test Live URL, det er hvad jeg får:

Og jeg er 100% min robots.txt filen har ikke ændret sig, siden jeg første gang implementerede dette websted. Dvs. dette er 100% en fejl fra Googlebot-gennemgangsprocessen.

Denne nøjagtige fejl rapporteres af andre i Googles webmasterforum. Det kan være en faktisk fejl, og du vil måske rapportere den der.

  • Tak skal du have! Kan du give mig et link til diskussionen?

arbejdet for dig: Charles Robertson | Ønsker du at kontakte os?