换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800819380 售前客服
在线客服,实时响应

客户经理:
13326404693

473197630 QQ群
473197630

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

python如何使用http代理

发布时间:2018年11月10日 来源:智游代理 www.zhiyoudaili.com

社会科技发展迅速,相信大家对HTTP代理应该都非常熟悉,它在很多方面都有着极为广泛的应用。首先简单介绍一下,什么是HTTP代理呢?HTTP代理本质上是一个Web应用,它和其他普通Web应用没有根本区别。HTTP代理收到请求后,根据Header中Host字段的主机名和Get/POST请求地址综合判断目标主机,建立新的HTTP请求并转发请求数据,并将收到的响应数据转发给客户端。那么如何在Python程序中设置HTTP代理呢?请看下面的介绍。

 

urllib2/urllib 代理设置:urllib2是Python标准库,功能很强大,只是使用起来稍微麻烦一点。在Python 3中,urllib2不再保留,迁移到了urllib模块中。urllib2中通过ProxyHandler来设置使用代理服务器。


  proxy_handler = urllib2.ProxyHandler({'http': '121.193.143.249:80'})

  opener = urllib2.build_opener(proxy_handler)

  r = opener.open('http://httpbin.org/ip')

  print(r.read())

  proxy_handler = urllib2.ProxyHandler({'http': '121.193.143.249:80'})

  opener = urllib2.build_opener(proxy_handler)

  r = opener.open('http://httpbin.org/ip')

  print(r.read())

  

也可以用install_opener将配置好的opener安装到全局环境中,这样所有的urllib2.urlopen都会自动使用代理。


  urllib2.install_opener(opener)

  r = urllib2.urlopen('http://httpbin.org/ip')

  print(r.read())

  在Python3中,使用urllib:

  proxy_handler = urllib.request.ProxyHandler({'http': 'http://121.193.143.249:80/'})

  opener = urllib.request.build_opener(proxy_handler)

  r = opener.open('http://httpbin.org/ip')

        print(r.read())


这个就是小编给大家带来的分享了,大家明白了吗?有程序员大牛可以试试哦。

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 代理ip在爬虫与优化推广的运用

想来大多数人都比较了解代理ip,其通常被运用网站爬虫及其优化推广这两种场景设计。那接下来,随着小编一起来看看吧。在网络数据抓取这一层面运用ip代理爬虫,我们都需要了解什么?通常情况下我们都在爬虫工作上,或是某些平台网站的软网上都是看到关于爬虫中提到的高频率请求并发等字眼,请求便是新建的请求数,如果是每秒新建请求,便是每一秒能够新传出多少条HTTP请求。而高并发是指每秒的并非数,也是指每秒可同时运用的HTTP网页链接。如每秒新建10条请求,代理ip的存活有效时间是3分钟,也便是180秒。如果代理ip第一秒传出去10条新的请求,那同时也便是10个并发了,如果第二秒又增加了10条,那同时也会增加10条并非。如果第一秒的请求数没有关闭,那第二秒总共就有20条并发,以此计算,代理ip存活时长180秒有多少条并发,便是10条请求最高是支持10条并发,也便是10/秒*180/ip存活时间=1800条并发。那大家知道在通常情况下我们都会在什么样营销模式运用换ip软件吗?而对于运用代理ip能够做如下优化推广:1、网盟推广营销:有些类似于找个网络数据代销商,用手上有... [阅读全文]

2 怎么解决爬虫资源问题

在大数据的时间,爬虫业务大家都不再陌生。随着网络的发展,反爬虫也在不断的优化。想突破反爬虫的限制,好的代理IP资源是非常重要的。那么,怎么解决爬虫资源问题呢?解决爬虫资源问题,最常见的就是用代理IP,一个是免费的资源,一个是购买专业的代理IP。免费成本低,但不稳定,大部分代理IP根本都不能用的,质量很差。对于爬虫工作者来说,任务量大,分布式爬虫也是提高工作效率的好办法,所以就更需要专业代理IP的帮助了。智游代理拥有国内很多城市的IP资源,可以满足爬虫的需求,质量高是很好的选择。所以,解决爬虫资源问题,是离不开代理IP的帮助的。挑选代理的时候要注意,找到质量好的代理才是好帮手。... [阅读全文]

热门标签

推荐阅读

  1. 14

    2018-11

    使用IP代理提高爬虫的效率

    在信息飞速发展的今天,互联网上的信息储存量大、更新也快,用户可以在互联网上寻找到任何需要的资料。

  2. 08

    2018-11

    爬虫使用代理防封IP

    在写爬虫爬取数据的时候,经常会遇到“HTTP Error 403: Forbidden”的提示,其实它只是一个HTTP状态码,表示你在请求一个资源文件但是nginx不允许你查看。

  3. 15

    2018-11

    爬虫代理IP该怎么用

    写网络爬虫时,大家都知道,如果爬虫抓取速度过快或者抓的网站和数据多了,经常会遇到ip频繁访问被封的问题。那么如何解决这种问题呢?

  4. 18

    2019-06

    爬虫不使用代理容易出现的问题

    大数据时代来临,爬虫独步天下,混得有声有色,然而,一物降一物,反爬虫应运而生,并且不断进化,爬虫工作举步维艰,若不能升级、进化,只能被淘汰。除了不断优化升级爬虫,很多爬虫

  5. 30

    2018-11

    反爬虫策略去哪找代理IP?

    ​大家应该都听过爬虫和反爬虫吧,它们两就是一对天敌,这么说其实一点都不过分。在大数据时代,数据就是金钱,很多网站为了保护自己网站数据运用了反爬策略。

  6. 19

    2018-11

    python爬虫可以离开代理IP?

    做过python爬虫的人应该都知道,抓取网站数据多了,如果爬得过快,免不了触发网站的防爬机制,而最普遍的防爬手段,几乎用的同一招就是封IP,那么我们如何摆脱这个困境呢?