2013-12-06 分类: 网站建设
在上文中小编为大家讲解了网站优化教程中搜索引擎蜘蛛的分类,下面,悦哥网站优化小编为大家介绍搜索引擎蜘蛛的抓取方式。
对于搜索引擎来说,要抓取互联网上所有的网页几乎是不可能的。从目前公布的数据来看,容量大的搜索引擎也不过抓取了整个互联网网页数量的40%左右。其中的原因,一方面是抓取技术的瓶颈,无法遍历所有的网页,许多网页无法从其他网页的链接中找到;另一方面是存储技术和处理技术的问题。如果按照每个页面20KB计算(包含图片),100亿个网页的容量是100×2000GB。即使能够存储,下载也存在问题(按照一台机器每秒下载20KB计算,需要240台机器不停地下载一年,才能把所有网页下载完毕)。
同时,由于数据量太大,在提供搜索时也会有效率方面的影响。因此,许多搜索引擎的蜘蛛程序只抓取那些重要的网页,而在抓取时主要依据某个网页的链接深度来评价其重要性。
在抓取阙页的时候,搜索引擎蜘蛛一般有两种策略,分别是广度优先和深度优先,如图1所示。广度优先是指搜索引擎蜘蛛会先抓取起始网页中链接的所有网页,然后选择其中的一个链接网页,继续抓取在此网页中链接的所有网页。这是最常用的方法,因为这个方法可以让搜索引擎蜘蛛并行处理,以提高其抓取速度。深度优先是指搜索引擎蜘蛛会从起始页开始,一个链接一个链接跟踪下去,处理完条线路之后再转入下一个起始页,继续跟踪链接。这个方法有个优点是搜索引擎蜘蛛的设计比较简单。
由于不可能抓取所有的网页,所以有些搜索引擎蜘蛛对一些不太重要的网站设置了访问的层数。如图1所示,A为起始网页,属于第0层,B、C、D、E、F属于第1层,G、H属于第2层,I属于第3层。如果搜索引擎蜘蛛设置的访问层数为2,网页I将不会被访问。这也导致有些网站的一部分网页能够在搜索引擎上搜索到,而另外一部分无法搜索到。对于网站设计者来说,扁平化的网站结构设计有助于搜索引擎抓取其更多的网页。
搜索引擎蜘蛛在访问网站网页的时候,经常会遇到加密数据和网页权限的问题,有些网页是需要会员权限才能访问的。当然,网站的所有者可以通过协议让搜索引擎蜘蛛不去抓取,但对于一些出售报告的网站,它们希望搜索引擎能搜索到它们的报告,但又不想让搜索者完全免费地查看,这样就需要给搜索引擎蜘蛛提供相应的用户名和密码。搜索引擎蜘蛛可以通过所给的权限对这些网页进行抓取,从而提供搜索。而当搜索者查看该网页的时候,同样需要进行相应的权限验证。
以上就是本次小编为大家分享的关于网站优化教程中搜索引擎蜘蛛的抓取方式的内容,本文主要内容来源于网络,由小编整理发布,如有侵权请联系本网站,谢谢!
新闻标题:网站优化中搜索引擎蜘蛛的抓取方式
URL网址:/news/4817.html
成都网站建设公司_创新互联,为您提供云服务器、搜索引擎优化、外贸建站、外贸网站建设、微信小程序、App开发
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联
猜你还喜欢下面的内容