搜索引擎抓取的逻辑

2013-10-26    分类: 网站建设

  做网站SEO优化,网页内容要想被搜索引擎收录,这个过程就需要通过搜索引擎蜘蛛来爬取来实现,你的内容首先要被搜索引擎发现,才能够判断质量是否优质达到收录要求。

搜索引擎抓取的逻辑

  什么是搜索引擎蜘蛛抓取份额?

  顾名思义,抓取份额是搜索引擎蜘蛛花在一个网站上的抓取页面的总的时间上限。对于特定网站,搜索引擎蜘蛛花在这个网站上的总时间是相对固定的,不会无限制地抓取网站所有页面。

  抓取份额的英文Google用的是crawl budget,直译是爬行预算,我觉得不太能说明是什么意思,所以用抓取份额表达这个概念。

  抓取份额是由什么决定的呢?这牵扯到抓取需求和抓取速度限制。

  抓取需求:

  抓取需求,crawl demand,指的是搜索引擎“想”抓取特定网站多少页面。

  决定抓取需求的主要有两个因素。一是页面权重,网站上有多少页面达到了基本页面权重,搜索引擎就想抓取多少页面。二是索引库里页面是否太久没更新了。说到底还是页面权重,权重高的页面就不会太久不更新。

  页面权重和网站权重又是息息相关的,提高网站权重,就能使搜索引擎愿意多抓取页面。

  抓取速度限制:

  搜索引擎蜘蛛不会为了抓取更多页面,把人家网站服务器拖垮,所以对某个网站都会设定一个抓取速度的上限,crawl rate limit,也就是服务器能承受的上限,在这个速度限制内,蜘蛛抓取不会拖慢服务器、影响用户访问。

  服务器反应速度够快,这个速度限制就上调一点,抓取加快,服务器反应速度下降,速度限制跟着下降,抓取减慢,甚至停止抓取。

  所以,抓取速度限制是搜索引擎“能”抓取的页面数。

  那么,抓取份额是由什么决定的?

  抓取份额是考虑抓取需求和抓取速度限制两者之后的结果,也就是搜索引擎“想”抓,同时又“能”抓的页面数。

  网站权重高,页面内容质量高,页面够多,服务器速度够快,抓取份额就大。

  小网站没必要担心抓取份额

  小网站页面数少,即使网站权重再低,服务器再慢,每天搜索引擎蜘蛛抓取的再少,通常至少也能抓个几百页,十几天怎么也全站抓取一遍了,所以几千个页面的网站根本不用担心抓取份额的事。数万个页面的网站一般也不是什么大事。每天几百个访问要是能拖慢服务器,SEO就不是主要需要考虑的事了。

  大中型网站可能需要考虑抓取份额

  几十万页以上的大中型网站,可能要考虑抓取份额够不够的问题。

  抓取份额不够,比如网站有1千万页面,搜索引擎每天只能抓几万个页面,那么把网站抓一遍可能需要几个月,甚至一年,也可能意味着一些重要页面没办法被抓取,所以也就没排名,或者重要页面不能及时被更新。

  要想网站页面被及时、充分抓取,首先要保证服务器够快,页面够小。如果网站有海量高质量数据,抓取份额将受限于抓取速度,提高页面速度直接提高抓取速度限制,因而提高抓取份额。

  SEO优化人员可以通过设置robots文件来禁止不允许抓取的地方,节省抓取份额。

新闻标题:搜索引擎抓取的逻辑
分享URL:/news37/4087.html

成都网站建设公司_创新互联,为您提供营销型网站建设Google网站维护微信小程序外贸建站关键词优化

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联

网站建设网站维护公司