注意: IP代理精灵仅提供国内ip网络节点,不提供境外网络节点,不能用于任何非法用途或访问境外封闭网站,不能跨境联网,只能用于合法的国内网络加速。

请登录 注册

首页 > 新闻资讯 > Python调用代理IP的几个方法

Python调用代理IP的几个方法

来源:IP代理精灵 作者:admin 时间:2019-06-26 14:48:33

网络爬虫与代理IP的关系,很多人都是知道的,不过虽然知道我们在使用爬虫进行抓取网页时要使用代理IP,但这如何使用的方法其实很多人都不知道的。不同爬虫设置代理的方法可能是不一样的,不通用,这样大家就需要多学习几个使用代理IP的方法,下面小编介绍Python调用代理IP的几个方法:

Python调用代理IP的几个方法

1.Selenium调用代理


from selenium import webdriver


proxy='123.58.10.36:8080'


chrome_options=webdriver.ChromeOptions()


chrome_options.add_argument('--proxy-server=http://'+proxy)


browser=webdriver.Chrome(chrome_options=chrome_options)


browser.get('http://httpbin.org/get')


2.requests调用代理


import requests


proxy='123.58.10.36:8080' #本地代理


#proxy='username:password@123.58.10.36:8080'


proxies={


'http':'http://'+proxy,


'https':'https://'+proxy


}


try:


response=requests.get('http://httpbin.org/get',proxies=proxies)


print(response.text)


except requests.exceptions.ConnectionError as e:


print('错误:',e.args)


3.urllib调用代理


from urllib.error import URLError


from urllib.request import ProxyHandler,build_opener


proxy='123.58.10.36:8080' #使用本地代理


#proxy='username:password@123.58.10.36:8080' #购买代理


proxy_handler=ProxyHandler({


'http':'http://'+proxy,


'https':'https://'+proxy


})


opener=build_opener(proxy_handler)


try:


response=opener.open('http://httpbin.org/get') #测试ip的网址


print(response.read().decode('utf-8'))


except URLError as e:


print(e.reason)


以上介绍了三种关于代理IP的调用方法,仅供参考。并没有汇总全部的使用方法,而且每一个人都有自己的使用习惯,如果你有更好的方法,可以分享出来学习的。对于代理IP的使用,小编使用IP代理精灵也是不错的,IP的数量以及匿名性都符合网络爬虫的需求。


最新资讯

推荐阅读

  1. 08

    2019-11

    反向代理服务器的工作原理是什么?

    反向代理服务器的工作原理是什么?反向代理(Reverse Proxy)方式是指以代理服务器来接受Internet上的连接请求,然后将请求转发给内部网络上的服务器;并将从服务器上得到的结果返回给Internet上请

  2. 26

    2019-04

    python爬虫使用代理ip或请求头的问题

    python爬虫使用代理ip或请求头的问题,接下来我们一起来看看!在request库中使用代理ip实例如下 一、 Failed to establish a new connection: [WinError 10061] 由于目标计算机积极拒绝,无法连接。'))) 这种情

  3. 22

    2019-05

    网站更换IP会对收录有什么影响

    IP对于网站来说相当于是一个身份证,如果频繁换新对网站还是会带来一些波动的。那么,网站更换IP会对收录有什么影响呢?接下来小编就跟大家聊聊,一起来看看吧!1、百度快照停止搜索和

  4. 18

    2018-12

    爬虫怎么伪装成用户的有效技巧

    爬虫要想正常的爬取信息,首先要让网站知道这是用户在访问,而不是爬虫,即是说爬虫要伪装成用户,那么爬虫怎么伪装成用户呢?

  5. 07

    2019-03

    Python制作爬虫请求头的设置方法

    爬虫在爬取网站数据时,由于网站设置了防爬虫的措施,就会被限制,那么这时就要根据实际情况设置请求头和代理IP,本文就几种爬虫技术设置请求的方法做个总结。

  6. 07

    2019-11

    怎么使用socks5代理IP?

    怎么使用socks5代理IP?HTTP代理ip相信很多朋友都比较熟悉,但对socks5代理,很多朋友都不知道如何使用?甚至把socks5代理IP当成HTTP代理IP来使用,结果自然不言而喻。今天ip代理精灵小编就来教教大