网站优化中一些常常被忽视的错误做法

2021-10-07    分类: 网站建设

我们在做优化时,往往会出现这样或那样的错误,对于优化过度或是优化不够都会影响到整体的效果,所以我们要找一个合适的度,以此来展现我们大的能力。常常会发现,站长们在优化网站的时候,出现这样或那样的错误而导致我们的排名很不理想,从而纠结于此,下面就来说说我们在优化过程中经常都容易忽视的几点错误,进而发现网站存在的一些隐患和一些有碍关键词排名的错误。作为一个SEO工作者当然也必须要具备及时发现这些错误的能力,以快速达到网站优化改善的目的。

一、网站的各项数据检查

经常检查的收录数据,而非单单只看数量。我们要根据百度或谷歌提供的数据来观察收录的页面,并检查都收录了哪些页面,这些页面的质量如何是否存在大量的重复页面或无实际内容,质量低劣的页面。我们经常会通过收录数据观察到一些网站的收录的异常现象。像这些对网站优化是有害链接页面,都是我们要仔细观察的。像我们网站就出现过这样的问题如图:

二、页面样本文字检查

页面的样本文字占有比例的多少是我们直接检查的重点,因为样本文字会直接影响到我们网站的收录和长尾关键词排名。样本文字的内容若超过正文内容导致页面质量下降,影响排名和全站收录。

样板文字比较容易出现的是第一个就是分类过细,产品不多,分类过细导致每个页面的有大量的重复内容文字造成相似度过高。第二个就是新闻内容放置过多的简介,导致内容过多。

常见的就是每个网站底部的一个版权说明,有的网站会在下面放置过多的内容,比如地址,电话什么的,其实这些在网站其它地方已经突显出来了,就没有必要再次的重复出现,底部做到一个精简是最好的。

三、Robots.txt文件的检查

检查网站的Robots.txt是非常必要的,我们要知道我们的网站Robots.txt有没有起到净化网站的作用,就必须时刻检查我们的 Robots.txt文件。它在网站优化中起到相当大的作用,当蜘蛛搜索站点时,首先检查的是该网站的根目录下是否存在Robots.txt文件,它会按照该文件的内容来确定访问范围。Robots.txt文件就像网站地图一样,是给搜索引擎蜘蛛指明道路的,对网站的页面收录起到桥梁的作用。当然如果我们的网站连Robots.txt都没有编写那就相当于是让我们的网站在互联网上裸奔了,其结果可想而知。

四、网站路径设置检查

网站路径检查,主要是要查询网站的目录路径是不是唯一性,路径唯一性是避免权重分散的要点。检查路径的设置是否出现中文,如下图

因为中文路径更难被搜索引擎抓取,而且很难收录,笔者很早之前曾做过一个互动百科的词条就是这种情况,到现在还没有被收录。

五、网站的稳定性检查

页面稳定性的检查主要操作是要对IIS日志检查监控观察,这也是我们优化工作者必备的能力之一。如果百度蜘蛛(Baiduspider)和谷歌机器人(Googlebot)均出现了 500 、503、504等状态码,次数越多说明是服务器和程序越不稳定了。如果出现404越多,说明死链接越多。另外如果出现了大量的200情况,你一定要检查一下所在搜索引擎爬取程序的IP,最好是检查一下是否假的百度蜘蛛或谷歌机器人爬取程序。真假蜘蛛辨别方法:Baiduspider ip的hostname以 *.baidu.com的格式命名,非 *.baidu.com即为冒充,建议使用DNS反查方式来确定抓取来源的ip是否属于百度。在windows平台下,可以用nslookup命令反解ip来判断是否来自Baiduspider的抓取。点击 “开始”-“运行”-“cmd”-“输入nslookup IP地址”-“回车”。

网站栏目:网站优化中一些常常被忽视的错误做法
文章起源:/news1/130201.html

成都网站建设公司_创新互联,为您提供网站制作微信公众号手机网站建设品牌网站建设电子商务网站建设

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联

网站托管运营