每天有数以万计的URL,被搜索引擎爬行与抓取,它透过互相链接,构成了我们现存的互联网关系,对于SEO人员,我们经常会谈论一个名词:网站抓取频率。
它在SEO日常工作中,扮演着重要的角色,并且给网站优化,提供了宝贵的建议。
根据以往的工作经验,我们知道网页收录的一个基本流程主要是:
抓取URL->内容质量评估->索引库筛选->网页收录(在搜索结果中展现)
其中,如果你的内容质量相对较低,就会被直接放入低质量索引库,那么,它就很难被百度收录,从这个流程不难看出,网站抓取频率,将直接影响站点的收录率与内容质量评估。
一、影响网站抓取频率的因素:
入站链接:理论上只要是外链,无论它的质量、形态如何,都会起到引导蜘蛛爬行抓取的作用。
网站结构:建站优选短域名,简化目录层级,避免URL过长,以及出现过多动态参数。
页面速度:移动优先索引,已经不止一次被百度提及,其中最重要的指标就是页面首次加载,控制在3秒内。
主动提交:网站地图、官方API提交、JS访问提交等。
内容更新:优质内容的更新频率,大型网站排名的核心因素。
百度熊掌号:如果你的网站配置熊掌号,在内容足够优质的前提下,抓取率几乎达到100%。
如何查看网站抓取频率:
CMS系统自带的“百度蜘蛛”分析插件。
定期做“网站日志分析”这个方法相对便捷。
二、页面抓取对网站的影响:
1、网站改版
如果你的网站升级改版,并且针对部分URL进行了修正,那么它可能急需搜索引擎抓取,重新对页面内容进行评估。
这个时候其实有一个便捷的小技巧:那就是主动添加URL到sitemap,并且在百度后台更新,第一时间告知搜索引擎它的变化。
2、网站排名
大部分站长认为,自百度熊掌号上线以来,它解决了收录问题,实际上目标URL,只有不停的被抓取,它才可以不断的重新评估权重,从而提升排名。
因此,当你有需要参与排名的页面,你有必要将其放在抓取频率较高的栏目。
3、压力控制
页面抓取频率高并非就一定好,来自恶意的采集爬虫,它经常造成服务器资源的严重浪费,甚至宕机,特别是一些外链分析爬虫。
有必要的情况下,可能需要合理的利用Robots.txt进行有效屏蔽。
4、异常诊断
如果你长期发现某个页面不被收录,那么你有必要了解其:百度蜘蛛的可访问性,你可以借助百度官方后台的抓取诊断,查看相关具体原因。