野狼SEO团队,纯白帽SEO倡导者!16年专注网站优化服务,支持月付!  [点击查看公司宣传册]
专注纯白帽、整站正规优化
让你排名上升,流量暴涨!
网站优化服务电话
0371-56789-390
详细内容
当前位置:首页 > SEO知识 > 详情

SemrushBot爬虫用robots.txt文件封禁,效果显著

发布时间:2022-07-09 来源:本站原创 作者:野狼SEO团队 阅读:1100

国外有几个爬虫,是真的很烦人,毕竟他没有多少用户,还抓取抓取中文网页,对于网站来讲意义不大。于是昨天因为客户服务器上卡顿,所以索性帮他进行了屏蔽。

今天看日志,semrush爬虫果然是老实了,如下图所示:

网站的访问量,下降很多,爆赞!

主要封禁的是:MJ12bot、SemrushBot、AhrefsBot。robots.txt文件如下,大家可以做个参考:

User-agent: MJ12bot
Disallow: /
User-agent: SemrushBot
Disallow: /
User-agent: SemrushBot-SA
Disallow: /
User-agent: SemrushBot-BA
Disallow: /
User-agent: SemrushBot-SI
Disallow: /
User-agent: SemrushBot-SWA
Disallow: /
User-agent: SemrushBot-CT
Disallow: /
User-agent: SemrushBot-BM
Disallow: /
User-agent: SemrushBot-SEOAB
Disallow: /
user-agent: AhrefsBot
Disallow: /
User-agent: DotBot
Disallow: /
User-agent: Uptimebot
Disallow: /
User-agent: MegaIndex.ru
Disallow: /
User-agent: ZoominfoBot
Disallow: /
User-agent: Mail.Ru
Disallow: /
User-agent: BLEXBot
Disallow: /
User-agent: ExtLinksBot
Disallow: /
User-agent: aiHitBot
Disallow: /
User-agent: Researchscan
Disallow: /
User-agent: DnyzBot
Disallow: /
User-agent: spbot
Disallow: /
User-agent: YandexBot
Disallow: /


话说,国外有的爬虫真的是厉害,不停的爬,真的不是一般地烦人。通过robots.txt封禁,好多了。本来服务器被抓取太多,占用非常多的内存,现在好了,内存占用率低,网站速度飞快。


本文作者:野狼SEO团队

十六年网站建设相关经验
一站式为您提供网站相关服务

欢迎扫码咨询

访客头像访 客3.235***
新评论

还没有人评论,快来抢个沙发!