网站生成静态页面攻击3:获取策略

目前,预防收集的方法有多种。首先介绍了反捕策略的常用方法及其弊端和获取对策。

首先,在一定时间内判断访问某个IP站点的次数,如果明显超过正常人浏览速度,拒绝IP访问。

事故:
1,这种方法只适用于动态页面,如…静态页面不能确定某个IP可以在某个时间访问站点页面的次数。
2,这种方法会严重影响搜索引擎蜘蛛对其收录,因为搜索引擎收录蜘蛛,浏览速度会更快,多线程,这种方法也拒绝搜索引擎蜘蛛在站内采集文件。
收购对策:收购的速度只能放慢,或者不能放慢。
建议:做一个搜索引擎蜘蛛IP库,只允许搜索引擎蜘蛛快速浏览站内内容。搜索引擎蜘蛛的IP库收藏也不容易,搜索引擎蜘蛛,或者不一定只有固定IP地址。
点评:这种方法对反收购比较有效,但会影响搜索引擎的采集。

两。用Javascript加密内容页

缺点:该方法适用于静态页面,但会严重影响搜索引擎的包容。搜索引擎接收的内容也被加密。
收集对策:建议不是挑,如果不是挑,js脚本解决密码也被收集。
建议:目前没有好的改进建议。
评论:建议搜索引擎的所有者不使用这种方法进行流量检查。

三。将内容页中的特定标记替换为特定标记+隐藏的版权文本

缺点:这种方法几乎没有滥用,只需添加一点点页面大小,但是很容易撤销集合。
获取对策:将受版权保护的文本替换为受版权保护的文本,或者用自己的版权替换它们。
建议:目前没有好的改进建议。
评论:我觉得没有什么实用价值,即使是随机隐藏的文本,也是多余的。

四。只允许用户登录浏览

缺点:这种方法会严重影响搜索引擎蜘蛛。
收集策略:目前,一些人已经提出了对策,具体的对策是看这个。如何利用ASP提交形式和XMLHTTP或饼干的会议程序发送吗
建议:目前没有好的改进建议。
评论:本文认为,搜索引擎的所有者并没有使用这种方法进行流量检测,但这种方法在防止通用采集程序方面仍有一定的效果。

五。使用Javascript,VBscript脚本分页

弊端:搜索引擎对其的影响
对策:收集分析Javascript和VBscript脚本,找出他们的分页规则,并使分页页面对应于该站。
建议:目前没有好的改进建议。
注释:有点脚本语言的人可以找到他们的分页规则。

六、只允许通过网站页面的连接,如:Request.ServerVariables(http_referer )

弊端:搜索引擎对其的影响
获取对策:我不知道它是否能模拟网页的来源,目前我没有针对这种方法的收购对策。
建议:目前没有好的改进建议。
评论:本文认为,搜索引擎的所有者并没有使用这种方法进行流量检测,但这种方法在防止通用采集程序方面仍有一定的效果。

由此可以看出,目前常用的反汇编方法会对搜索引擎产生很大的影响,或者反汇编的效果不够好,不利于收集,因此,没有一种有效的收集方式,不影响搜索引擎收录的方法呢那么请继续往下看。