便宜做网站,不用客户动手特价999元,源码整套仅需50元起
50元起
查看详情 →
有人问:网站的robots文件是正常的,检测的时候显示失败,大神指导一下什么原因?
其实这个问题非常简单,百度站长资源平台的BUG,他不识别https网站上的robots文件。或者换句话说,http跳转到https了,所以返回状态不是200,他认为是失败的:
请求失败,我们已记录此问题并将尽快处理,请刷新页面或稍后再试。
比如你https://390seo.com/ 跳转到 https://www.390seo.com/ 那么检测也是失败的。
但实际上正常访问,是并不失败。
解决办法:无需解决
只要是你的robots稳健正常就不需要解决。
十六年网站建设相关经验
一站式为您提供网站相关服务
还没有人评论,快来抢个沙发!