网站优化之防止网站被采集

2016-08-09    分类: 网站建设

采集就是使用程序通过自动化操作复制数据。
首先说明,只要是能让浏览器访问的,就没有不能采集的。
但是可以通过一定的手段让采集变得非常麻烦,进而在大量数据的情况下延迟采集完成时间,加大采集难度。
一般的情况略过不说,几种情况比较特别的:
1、验证来路,cookie,session这些,比如PHP可以用fsockopen自定义HTTPHeader,基本上这些方法没什么效果。
2、限速,限制某段时间内打开页面数量。这个只是推迟了下,大部分时间效果一般。比如某站限制一分钟之内只能打开30个网页,页面大小平均30K,则用迅雷批量下载就OK了,设置限速为2K,一觉醒来什么都好了。这个方法效果也基本没有。
3、比较特别的方法,设置一个数量级的阀值,达到这样数量后,必须验证方能继续,比如打开10个页面需要输入验证码,这个时候只需要保证验证码不可识别,分配一个session,以后的浏览过程中用session保证用户合法性,这样不影响后续访问,同时可以有效防止采集。
4、第三条对蜘蛛是致命的,此时可通过手机蜘蛛IP段,放行,其它的按照严格规则来。
5、3+4真是无敌的吗?远非可以高枕无忧,比如此站有10万个页面,则设置100个代理,在阀值前循环使用代理,这样实际上绕过了3的限制。
6、还有别的办法吗?不能,因为你的网站能用浏览器打开。

本文名称:网站优化之防止网站被采集
网页地址:/news19/41719.html

成都网站建设公司_创新互联,为您提供微信公众号网站设计网站策划建站公司品牌网站建设定制开发

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联

营销型网站建设