成都网站制作网站误封Robots该如何处理

2013-10-14    分类: 网站建设

 obots文件是搜刮生态中很首要的一个要害,一起也是一个很细节的要害。许多站长同学在网站运营进程傍边,很简单忽略robots文件的存在,中止过失笼罩或许全部封禁robots,构成不需要损
成都网站制作
  robots文件是搜刮生态中很首要的一个要害,一起也是一个很细节的要害。许多站长同学在网站运营进程傍边,很简单忽略robots文件的存在,中止过失笼罩或许全部封禁robots,构成不需要损失!
  那末假如误操作封禁了robots怎么办?今日我们请到了厦门258网站运营负责人——郑军伟,为我们共享网站robots误封禁后该若何操作?
  【事例配景】
  网站拓荒2.0版别,技巧选择了在线拓荒,为了避免搜刮引擎抓取拓荒版别,恳求技巧职工设置了Robots封禁处置。2.0版别拓荒周期1个月,1个月后网站版别迭代,直接笼罩了1.0版别,包含Robots封禁文件,2天后创造流量大幅下降,检讨录入创造800万录入降至0条自动化生产线,要害词大批掉线。

成都网站制作

  【处置编制】
  1.改动Robots封禁为答应,而后到baidu站长后台检测并更新Robots。
  2.在baidu站长后台抓取检测app使用,此刻体现抓取失利,没关系,多点击抓取几回河北人事考试中心,触发蜘蛛抓取站点。
  3.在baidu站长后台抓取频次,恳求抓取频次上调。
  4.baidu反响中心,反响是因为误操作招致了这类环境的产生。
  5.baidu站长后台链接提交处,设置数据自动推送(实时)。
  6.更新sitemap网站舆图,重新提交baidu,每天手工提交一次。
  以上处置完,接下来就是期待了,万幸,2天的光阴数据初步逐渐上升,到第3天根本上升到异常状态!

成都网站制作
  【事例总结】
  本次紊乱相对是运营日子的一次败笔,总结反思一下,盼望人人避免类似问题。
  1.产品拓荒一定要避免在线拓荒,不克不及为了省劲不建立拓荒环境。
  2.产品迭代要有流程记载,拓荒时做了那些设置处置,那些是不需要放进去的,那些是必需放进去的,要分外十分清晰。
  3.要常常存眷baidu站长后台,存眷相干数据改动,从数据改动中实时创造问题

网站栏目:成都网站制作网站误封Robots该如何处理
分享路径:/news/17781.html

成都网站建设公司_创新互联,为您提供关键词优化网站建设面包屑导航网站制作外贸网站建设小程序开发

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联

微信小程序开发