注意: IP代理精灵仅提供国内ip网络节点,不提供境外网络节点,不能用于任何非法用途或访问境外封闭网站,不能跨境联网,只能用于合法的国内网络加速。

请登录 注册 实名验证

首页 > 新闻资讯 > Python爬虫如何绕过网站的反爬虫机制?

Python爬虫如何绕过网站的反爬虫机制?

来源:IP精灵 作者:admin 时间:2019-09-25 14:58:28

  Python爬虫如何绕过网站的反爬虫机制?爬取网站的时候经常会遇到网站上都部署了反爬虫机制,当服务器检测到一段时间内同一个IP持续密集的访问网站,则将其判定为爬虫程序,在一段时间内不允许该IP地址访问服务器。

Python爬虫如何绕过网站的反爬虫机制

  这种情况其实可以写个延迟函数,每爬一次随机歇个几秒钟,有效的降低访问密度,从而避开反爬机制。但是弊端是太浪费时间,一天爬几万条数据会感到非常吃力。

  这时就需要更加有效率的爬取数据,所以需要使用动态ip和随机 UA(User-Agent)。说白了就是伪装爬虫,假装不同的人使用不同的浏览器在访问网站。

  使用动态拨号VPS

  除了代理IP以外,还可以使用动态拨号VPS来更换IP,这种方式获得的IP质量更高,而且可以直接在拨号vps上部署业务,更加方便。

  这种方式需要进行一些技术处理,实现IP更换和调用。

  使用动态ip

  使用动态ip 的强大之处在于它在爬虫运行的同时,在线获取动态ip。每次只获取一页,存于数组中,随机使用。当大部分的 IP 失效之后(记录访问失败的次数,当超过一定阈值时,则视为此页动态ip 失效),然后重新获取一页动态ip

  如此,可保证每次使用的都是最新的 IP,而且不需要额外的空间和文件来存放动态ip。

  def get_proxy(page):

  '''

  功能:获取精灵代理网站上的最新代理IP

  参数: page 页数

  返回:存有动态ip 的列表 proxyList

  '''

  # 存放获取到的动态ip 信息 proxyList = [] # 访问精灵代理网站,获取第 page 页的网页信息 headers = { "User-Agent" : "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11" } request = urllib.request.Request("https://www.kuaidaili.com/free/inha/"+str(page), headers=headers) html = urllib.request.urlopen(request).read() # 解析网页信息,从中提取动态ip 的数据 content = etree.HTML(html) ip = content.xpath('//td[@data-title="IP"]/text()') port = content.xpath('//td[@data-title="PORT"]/text()') # 将动态ip 信息存入 proxyList 列表 for i in ip: for p in port: proxyList.append(i+':'+p) return proxyList


最新资讯

推荐阅读

  1. 22

    2019-01

    爬虫使用scrapy模拟登录方法

    在数据爬取时,我们时常使用到爬虫,因为在爬取的过程中会出现反爬虫,我们先要进行突破才能获取到数据。比如IP限制,可以使用IP代理精灵来突破IP限制,顺利的突破网络限制,可以实现多

  2. 18

    2020-05

    为什么不建议使用免费代理ip?

    为什么不建议使用免费代理ip?随着如今代理IP制造行业的迅猛发展,互联网上能用的代理IP資源也愈来愈多,许多地区代理每日都是升级更新免费的能用代理IP資源,如ip代理精灵服务平台,很有

  3. 15

    2019-05

    反向代理服务器是什么

    我们常会看到“反向代理服务器​”这个名词,例如常看到文章上说 nginx 是一个反向代理服务器、varnish 是一个反向代理服务器。反向代理服务器是什么?下面就了解下这个概念。含义 “反向

  4. 01

    2020-04

    IP寻址简述

    IP寻址简述!今天ip代理精灵与大家一起分享“ IP寻址简述”,这里IP寻址的意思就是根据一个IP地址,找到相应的机器,也就是路由的过程。无论是划分了子网的网络,还是没有划分子网的网络,

  5. 18

    2019-10

    python爬虫代理ip如何解决被封问题?

    python爬虫代理ip如何解决被封问题?在网络爬虫抓取信息的过程中,如果抓取频率高过了网站的设置阀值,将会被禁止访问。通常,网站的反爬虫机制都是依据IP来标识爬虫的。python爬虫解决IP被

  6. 09

    2019-07

    浏览器设置代理IP后不能上网怎么办

    很多朋友在使用代理IP的时候遇到过这样的情况,设置完代理IP非但没有生效,之后还不能上网了,这是为什么呢?浏览器设置代理IP后不能上网怎么办?