directadmin

由于像谷歌这样的搜索引擎需要解析您的网站以确定要搜索的内容,如果您的网站上有大量数据,那么如果抓取时间很短,这通常会给系统带来很高的负载。 通过在您的public_html文件夹

搜索引擎爬虫正在增加我的系统负载

来源:梦飞科技 作者:梦飞 浏览量:124 更新:2018-04-03
由于像谷歌这样的搜索引擎需要解析您的网站以确定要搜索的内容,如果您的网站上有大量数据,那么如果抓取时间很短,这通常会给系统带来很高的负载。
 
通过在您的public_html文件夹中创建robots.txt文件,您可以指示这些搜寻器放慢速度。
 
示例robots.txt可能如下所示:

User-agent: *
Crawl-delay: 300

它告诉所有爬虫在每次请求前等待300秒。
没有它,爬行程序可能会每秒发出多个请求,从而增加系统负载。
部分文章来源与网络,若有侵权请联系站长删除!