换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800821111 售前客服
在线客服,实时响应

800821111 售前客服
在线客服,实时响应

大客户经理
2110220233

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

python如何使用http代理

发布时间:2018年11月10日 来源:智游代理 www.zhiyoudaili.com

社会科技发展迅速,相信大家对HTTP代理应该都非常熟悉,它在很多方面都有着极为广泛的应用。首先简单介绍一下,什么是HTTP代理呢?HTTP代理本质上是一个Web应用,它和其他普通Web应用没有根本区别。HTTP代理收到请求后,根据Header中Host字段的主机名和Get/POST请求地址综合判断目标主机,建立新的HTTP请求并转发请求数据,并将收到的响应数据转发给客户端。那么如何在Python程序中设置HTTP代理呢?请看下面的介绍。

 

urllib2/urllib 代理设置:urllib2是Python标准库,功能很强大,只是使用起来稍微麻烦一点。在Python 3中,urllib2不再保留,迁移到了urllib模块中。urllib2中通过ProxyHandler来设置使用代理服务器。


  proxy_handler = urllib2.ProxyHandler({'http': '121.193.143.249:80'})

  opener = urllib2.build_opener(proxy_handler)

  r = opener.open('http://httpbin.org/ip')

  print(r.read())

  proxy_handler = urllib2.ProxyHandler({'http': '121.193.143.249:80'})

  opener = urllib2.build_opener(proxy_handler)

  r = opener.open('http://httpbin.org/ip')

  print(r.read())

  

也可以用install_opener将配置好的opener安装到全局环境中,这样所有的urllib2.urlopen都会自动使用代理。


  urllib2.install_opener(opener)

  r = urllib2.urlopen('http://httpbin.org/ip')

  print(r.read())

  在Python3中,使用urllib:

  proxy_handler = urllib.request.ProxyHandler({'http': 'http://121.193.143.249:80/'})

  opener = urllib.request.build_opener(proxy_handler)

  r = opener.open('http://httpbin.org/ip')

        print(r.read())


这个就是小编给大家带来的分享了,大家明白了吗?有程序员大牛可以试试哦。

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 爬虫代理IP如何使用

用听说过爬虫的人应该都知道,抓的网站和数据多了,如果爬虫抓取速度过快,很多网站防爬机制总是会碰上的,几乎用的同一招就是封IP。解决方案有2个:1、同一IP,放慢速度(爬取速度慢)2、使用代理IP访问(推荐)第一种方案需要的就是时间和速度,来换取数据,但是一般情况下我们的时间是是有限的,理想情况下是用最短的时间获取最多的数据。所以第二种方案是推荐的,那么从哪里能找到这么多代理IP呢?寻找代理程序不懂的时候就去寻找,google、百度,输入关键字:免费代理IP,打开后观察发现,几乎都是一个列表页。但是仔细观察就会发现,每个网站提供的免费IP还是有限的,用了之后就会发现,有的已经没有用了,很多都是付费的。只需要用搜索引擎去找免费IP,每个网站提供几十或几百个,假如10家网站,那加在一起也有几百到几千个IP。可以记录下来这些网站,用程序把IP抓过来就好了,做起来还是有点麻烦的。测试代理通过刚才的方式,应该可以获得几百或上千的代理IP了。IP就是免费的吗?当然不是,这些代理中有很多事已经没有用了。如何判断哪些代理是有效,哪些是不可用的呢?挂上这些代理,再去... [阅读全文]

2 为什么有些爬虫代理ip重复率很高?

为什么有些爬虫代理ip重复率很高?做爬虫的久了,会接触到很多很多爬虫代理ip提供商家,也会发现不同提供商的http代理质量差别非常大,有些代理商的重复率非常高,导致爬虫被封,这是为什么呢?按理说通过机房出来的代理ip,应该质量是一样的,即使有差别也不会如此巨大,那是什么原因导致有些代理商提供的http代理重复率如此之高?那是因为有些http提供商的IP池太小,导致所有IP提取了一遍之后再进行提取会使用到很多重复的资源,从而导致IP被封,如果像智游代理这种一天有几百万的不重复IP的话,就能够很好地满足无论还爬虫用户还是刷量用户,能够很好地支撑用户业务的开展。智游代理提供多种套餐选择:静态线路:静态线路是IP固定,永远不会变更动态线路:动态线路是该条线路最后一个用户断线后则更换IP,目前全国200+城市服务器节点,每天产生几十万个IP独享线路:可连接独享在内的所有线路,可使用静态,动态,独享客户端,可连接动态PPTP|L2TP|SSTP直连。智游代理套餐年底优惠多多,需要购买请咨询智游代理在线客服。... [阅读全文]

热门标签

推荐阅读

  1. 02

    2019-01

    爬虫IP被禁怎么解决?可以使用代理ip吗

    ​爬虫以前听上去好厉害好神秘的样子,用好了可以成就像Google、百度这样的索索引擎,用不好可以凭借不恰当的高并发分分钟崩掉一个小型网站。

  2. 01

    2019-06

    爬虫动态代理ip服务器选择哪家好

    爬虫动态代理ip服务器选择哪家好?我们在做爬虫的过程中经常会遇到这样的情况,最初爬虫正常运行,网络爬虫的基本工作流程例如以下:1.选取种子URL;2.将这些URL放入待抓取URL队列;3.从待

  3. 28

    2018-11

    网络代理和虚拟专用网络的区别

    今天小编给大家介绍一下网络代理和虚拟专用网络的区别,请看下面分享。虚拟专用网络功能是:在公用网络上建立专用网络,进行加密通讯。在企业网络

  4. 03

    2019-07

    做爬虫选择哪家代理IP比较好

    众所周知,没有代理IP,爬虫工作就无从谈起,好的代理IP资源可以让爬虫工作事半功倍,正所谓“工欲善其事必先利其器”,所以选择一个好的代理IP资源至关重要。那么,做爬虫选择哪家代理

  5. 22

    2018-11

    python爬虫使用代理IP的正确方式

    ​现在从事爬虫行业的朋友非常多,但是很多都不知道Python爬虫程序里应该怎样来使用代理IP,今天小编就来分享一下这方面经验。这里以python3为例,请看下面介绍。

  6. 07

    2019-08

    如何使用智游代理保证爬虫顺利完成工作

    我们在进行网络爬虫业务时,常会碰到一些问题,不是返回一些乱七八糟的状态码,就是限制我们的ip地址,甚至封ip,或是什么内容都不返回,让我们自己来猜测。所以,网络爬虫工作这么的