注意: IP代理精灵仅提供国内ip网络节点,不提供境外网络节点,不能用于任何非法用途或访问境外封闭网站,不能跨境联网,只能用于合法的国内网络加速。

请登录 注册 实名验证

首页 > 新闻资讯 > 爬虫为什么会被封?爬虫被封的常见原因

爬虫为什么会被封?爬虫被封的常见原因

来源:互联网 作者:admin 时间:2018-11-27 16:36:58

    爬虫为什么会被封?爬虫自互联网诞生就一直存在着,经过不断的发展,特别是大数据受欢迎后,许多企业都运用爬虫来收集大量数据,通过数据分析获取有效信息,然而这些信息目标网站并不想让竞争对手获取到,或者是为了保护网站,设置了反爬机制,限制爬虫的采集,因此使用爬虫采集信息容易被封。


    但有不能放弃采集信息,因此爬虫需要找到被封的原因,并突破限制才能继续的采集信息,下面请跟IP代理精灵去了解一下爬虫被封的常见原因。


爬虫为什么会被封,爬虫被封的常见原因


    1.请求头没有修改


    有些网站会封杀任何声称自己是爬虫的访问者。如果你不确定请求头的值怎样才算合适,就用你自己浏览器的请求头吧。


    2.Cookie不合法


    如果你已经登录网站却不能保持登录状态,或者网站上出现了其他的“登录状态”异常,请检查你的cookie。确认在加载每个页面时cookie都被正确调用,而且你的cookie在每次发起请求时都发送到了网站上。


    3.JavaScript执行问题


    如果你从网络服务器收到的页面是空白的,缺少信息,或其遇到他不符合你预期的情况(或者不是你在浏览器上看到的内容),有可能是因为网站创建页面的JavaScript执行有问题。


    4.速度频繁


    快速采集是一种恶习,会对网管的服务器造成沉重的负担,还会让你陷入违法境地,也是IP被网站列入黑名单的首要原因。给你的爬虫增加延迟,让它们在夜深人静的时候运行。切记:匆匆忙忙写程序或收集数据都是拙劣项目管理的表现;应该提前做好计划,避免临阵慌乱。


    5.提交参数不对


    如果你准备向网站提交表单或发出POST请求,记得检查一下页面的内容,看看你想提交的每个字段是不是都已经填好,而且格式也正确。用Chrome浏览器的网络面板(快捷键F12打开开发者控制台,然后点击“Network”即可看到)查看发送到网站的POST命令,确认你的每个参数都是正确的。


    6.IP被识破


    如果你在客户端遇到了HTTP错误,尤其是403禁止访问错误,这可能说明网站已经把你的IP当作机器人了,不再接受你的任何请求。你要么等待你的IP地址从网站黑名单里移除,要么就换个IP地址(可以使用代理IP,比如IP代理精灵)。


    爬虫为什么会被封的原因非常多,上文介绍了常见的几种,建议使用爬虫要尽可能的伪装自己的数据,除了IP不能伪装外。IP也可以使用IP代理精灵,隐藏自己的真实IP,以此来突破IP的限制。另外要尽可能的降低采集速度,不给对方服务器来带太大的影响。


最新资讯

推荐阅读

  1. 21

    2019-05

    动态vps与混拨vps的区别

    我们不管是建站还是切换IP,都需要使用vps,vps分为多种类型,分别是全国混拨vps、单城市拨号vps、固定ip,这不同类型vps作用也有区别的,那么VPS用哪个类型好呢?这拨号VPS怎么设置自动拨号

  2. 09

    2019-01

    怎么批量获取IP地址?免费IP地址有效吗?

    现实中,大家使用的IP地址,大多数都是动态的IP,因为IP资源稀缺,想要获取大量的IP是一件难事,但如果工作需要使用大量的IP地址,这该怎么办啊。你知道怎么批量获取IP地址吗?

  3. 18

    2019-04

    网络不好如何使用代理服务器登录QQ

    在某些情况下,比如网络不通畅,无法与QQ服务器连通,我们会用代理服务器来登录QQ。对不太了解QQ代理服务器的朋友们来说,找代理、用代理都比较困难。下面我们就来详细了解一下代理服务

  4. 29

    2019-08

    使用Jsoup和代理IP做数据抓取

    现在爬数据越来越难,各种反爬,简单的网站没做什么反爬,就随便介绍下:随便找点网站弄点免费的http代理ip,去爬一下,太简单就不介绍了,目前最好用的代理ip是IP代理精灵。具体说下,

  5. 13

    2019-05

    爬虫如何使用代理防封IP

    爬虫如何使用代理防封IP?在我们使用爬虫进行数据爬取的时候,爬着爬着就经常会遇到这种情况出现“HTTP Error403: Forbidden ”的提示,这是啥意思呢?其实他是一种http状态码,表示你在请求一

  6. 16

    2019-05

    爬虫基础之代理的基本原理

    简单的说爬虫就是获取网页并提取和保存信息的自动化程序。下文为大家梳理了爬虫基础之代理的基本原理,一起来了解看看吧!1. 基本原理 代理实际上指的就是代理服务器,英文叫作proxy serve