注意: IP代理精灵仅提供国内ip网络节点,不提供境外网络节点,不能用于任何非法用途或访问境外封闭网站,不能跨境联网,只能用于合法的国内网络加速。

请登录 注册 实名验证

首页 > 新闻资讯 > 网站反爬虫和爬虫的应对方法

网站反爬虫和爬虫的应对方法

来源:互联网 作者:admin 时间:2019-02-22 15:20:42

网站反爬虫比较多,robots限制是最基本的,告诉爬虫们哪些是不可以爬取的。还有其他的限制,比如常见的有IP限制,验证码限制,还有User-Agent检测,JS脚本等等,不同的反爬虫可以起到不同的效果。


网站反爬虫和爬虫的应对方法


1.robots.txt限制


搜索引擎本身就是一个超级大的爬虫,爬虫可以24h不间断的在网上爬取着新的信息,并返回给数据库,但是这些搜索引擎的爬虫都遵守着一个协议:robots.txt


robots.txt协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。当然在特定情况下,比如说我们爬虫的获取网页的速度,和人类浏览网页是差不多的,这并不会给服务器造成太大的性能损失,在这种情况下,我们是可以不用恪守robots协议的。


2.JS脚本限制


举个例子:如果想爬取某个网站,在请求之前,它会有一个验证页面来验证你是否机器。即会通过js代码生成一大段随机的数字,然后要求浏览器通过js的运算得出这一串数字的和,再返回给服务器。


解决方法:使用PhantomJS


PhantomJS是一个Python包,他可以在没有图形界面的情况下,完全模拟一个”浏览器“,js脚本验证什么的再也不是问题了。


3.User-Agent检测


无论是浏览器还是爬虫程序,在向服务器发起网络请求的时候,都会发过去一个头文件:headers,表明身份。对于爬虫程序来说,最需要注意的字段就是User-Agent,很多网站都会建立user-agent白名单,只有属于正常范围的user-agent才能够正常访问。


解决方法:可以自己设置一下user-agent,或者更好的是,可以从一系列的user-agent里随机挑出一个符合标准的使用。


上文介绍了关于三种网站反爬虫的解决方法,仅供参考,若是在爬取的过程中还是遇到问题,可能是网站还有其他的反爬虫,这在爬取之前是需要进行分析,并找到问题解决的。


如:P限制,可以使用IP代理精灵;验证码限制,可以使用人工打码或者验证码识别...


最新资讯

推荐阅读

  1. 31

    2019-10

    代理IP的工作原理

    代理IP的工作原理!代理ip相信大家都有所听闻,也有使用过,但是代理IP背后的实现原理,你又知道多少?ip代理精灵下面为大家带来代理不同类型的原理,让大家更加清楚代理IP是如何工作的。

  2. 08

    2019-11

    反向代理服务器的工作原理是什么?

    反向代理服务器的工作原理是什么?反向代理(Reverse Proxy)方式是指以代理服务器来接受Internet上的连接请求,然后将请求转发给内部网络上的服务器;并将从服务器上得到的结果返回给Internet上请

  3. 27

    2019-06

    代理IP的用途你知道多少

    代理IP其实就是隐藏自己的真是IP地址,使用新IP去访问网页或进行操作,很多人不知道可以使用代理IP消耗了很多时间和精力。下面为大家介绍下代理IP的用途。1.提高速度。 代理IP软件一般都会

  4. 16

    2019-12

    探究爬虫以及爬虫如何解决ip封锁的问题

    探究爬虫以及爬虫如何解决ip封锁的问题!在大数据时代,采集数据分析数据已经成为企业发展的重要部分,采集数据就不得不说爬虫,而爬虫在采集数据是经常会遇到ip被封锁的问题,这要怎么

  5. 03

    2020-08

    代理ip的主要功能介绍

    代理ip的主要功能介绍!网络信息时代发展迅速,与网络相关的行业也随着互联网的发展不断的壮大。代理IP作为互联网的衍生产品之一,使用的范围非常广泛。很多网络工作者会用代理IP这个“

  6. 30

    2018-11

    网络爬虫有什么危害?网络爬虫要遵循什么原则

    ​网络爬虫原本仅用于搜索引擎,但是随着互联网技术的发展,特别是大数据的到来,很多人都学习爬虫,企业也需要采集数据挖掘有价值的资料,但是这些爬虫采集的数据并不一定都是公开。