网站不利于蜘蛛爬行
目前大部分网站都是开源程序建站,博客站点有Wp,z-blog,商业站点有dede,shopex,论坛有discuz,php,在蜘蛛爬行方面 已经有很大进步,利于seo优化和蜘蛛爬行。但是很多站长在建站之初并没有做好栏目和版面的规划,路径太长太深,首页的具体不止三次点击,爬虫不会爬那么深。不断的增加删除页面,造成网站大量的404,降低蜘蛛的爬行兴趣,同样会影响网站的权重。
加上后期的修改代码,调整插件,插件调整会好点,就算出错也可以及时回复,只要不是删除。但是代码不一样,如果你修改header部分的次数过多, 幅度过大,都会被搜索引擎认为是一个新站,会造成之前已经收录页面遭到删除,爬虫的数量和次数也会大大降低。更换主题模板也是一样,尽量一次敲定,后期的 每一次修改都会造成不必要的权重损失。
也有部分网站是设计师设计的,这类网站一般都会经过多次调试无误,才会发布上线,这并不意味着没有问题。外观上漂亮的flash,iframe页面,却没有任何实用价值,蜘蛛几乎从不爬行,所以收录只能是0。上次听国平老师讲课,印度一个排名前三的购物网站,就是因为网站的代码问题,导致30000人注册,只有不到1%的成功率,而他们在没招聘seo之前,根本不知道这个事情。这就需要设计师在网站上线之后,还要协同seo做好追踪调试, 链接问题,死循环,蜘蛛陷阱等问题的及时改进。
分享名称:网站排名不上去的几个原因
分享链接:/news13/296763.html
成都网站建设公司_创新互联,为您提供微信公众号、关键词优化、标签优化、App开发、外贸网站建设、网站策划
广告
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源:
创新互联