换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800819380 售前客服
在线客服,实时响应

客户经理:
13326404693

473197630 QQ群
473197630

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

python如何使用http代理

发布时间:2018年11月10日 来源:智游代理 www.zhiyoudaili.com

社会科技发展迅速,相信大家对HTTP代理应该都非常熟悉,它在很多方面都有着极为广泛的应用。首先简单介绍一下,什么是HTTP代理呢?HTTP代理本质上是一个Web应用,它和其他普通Web应用没有根本区别。HTTP代理收到请求后,根据Header中Host字段的主机名和Get/POST请求地址综合判断目标主机,建立新的HTTP请求并转发请求数据,并将收到的响应数据转发给客户端。那么如何在Python程序中设置HTTP代理呢?请看下面的介绍。

 

urllib2/urllib 代理设置:urllib2是Python标准库,功能很强大,只是使用起来稍微麻烦一点。在Python 3中,urllib2不再保留,迁移到了urllib模块中。urllib2中通过ProxyHandler来设置使用代理服务器。


  proxy_handler = urllib2.ProxyHandler({'http': '121.193.143.249:80'})

  opener = urllib2.build_opener(proxy_handler)

  r = opener.open('http://httpbin.org/ip')

  print(r.read())

  proxy_handler = urllib2.ProxyHandler({'http': '121.193.143.249:80'})

  opener = urllib2.build_opener(proxy_handler)

  r = opener.open('http://httpbin.org/ip')

  print(r.read())

  

也可以用install_opener将配置好的opener安装到全局环境中,这样所有的urllib2.urlopen都会自动使用代理。


  urllib2.install_opener(opener)

  r = urllib2.urlopen('http://httpbin.org/ip')

  print(r.read())

  在Python3中,使用urllib:

  proxy_handler = urllib.request.ProxyHandler({'http': 'http://121.193.143.249:80/'})

  opener = urllib.request.build_opener(proxy_handler)

  r = opener.open('http://httpbin.org/ip')

        print(r.read())


这个就是小编给大家带来的分享了,大家明白了吗?有程序员大牛可以试试哦。

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 通用的爬虫系统有哪些类型?

通用的爬虫系统有哪些类型?爬虫技术就是一个高效的下载系统,能够将海量的网页数据传送到本地,在本地形成互联网网页的镜像备份。根据具体应用的不同,爬虫系统虽然在许多细节方面存在差异,但大体可以将爬虫系统分为如下3种类型:一、批量型爬虫:批量型爬虫有比较明确的抓取范围和目标,当爬虫达到这个设定的目标后,即停止抓取过程。至于具体目标可能各异,也许是设定抓取一定数量的网页即可,也许是设定抓取的时间等,各不一样;二、增量型爬虫:增量型爬虫与批量型爬虫不同,会保持持续不断地抓取,对于抓取到的网页,要定期更新。因为互联网网页处于不断变化中,新增网页、网页被删除或者网页内容更改都很常见,而增量型爬虫需要及时反映这种变化,所以处于持续不断的抓取过程中,不是在抓取新网页,就是在更新已有网页。通用的商业搜索引擎爬虫基本都属此类;三、垂直型爬虫:垂直型爬虫关注特定主题内容或者属于特定行业的网页,比如对于养生网站来说,只需要从互联网页面里找到与养生相关的页面内容即可,其他行业的内容不在考虑范围。垂直型爬虫一个最大的特点和难点就是:如何识别网页内容是否属于指定行业或主题。从节... [阅读全文]

2 网络爬虫伪装有哪些方式?

爬虫和反爬虫一直相爱相杀着:没有爬虫,反爬虫毫无存在的意义;有了反爬虫,爬虫的日子也别想好过。爬虫每天都在想怎么甩了反爬虫,反爬虫则是每天都在想怎么黏住爬虫,它们不断地在对抗中,不断地在提升自己,谁落后谁就要输。爬虫在此期间为了甩开反爬虫自创了一招技能——伪装术,这技能又分为三招,分别是:伪装UA、伪装IP和伪装真实用户。下面我们来将技能进行分解,希望对新手朋友们有所帮助。一、伪装UA。UA全称是User-Agent,叫做用户代理,不同的浏览器UA各有不同。反爬虫会根据UA来判断某个IP是否爬虫,所以需要进行伪装。网上有很多UA,搜集起来写在自己的配置里,在添加UA的时候随机选一个,这样毫无规律地设置UA,会让反爬虫傻眼;二、伪装IP。很多时候反爬虫都是根据单IP的行为来判断是否爬虫,比如某IP访问频率太快,访问次数太多了……反爬虫就会限制IP再次访问。解决方法也很简单,找代理IP服务商购买高效稳定的代理IP,比如智游代理的动态高质量代理;三、伪装真实用户。这个伪装技术就比较厉害了,反爬虫不可能杀死真实用户,不然网站就没什么意义了。那么如何伪装真... [阅读全文]

热门标签

推荐阅读

  1. 14

    2019-10

    爬虫代理IP有多少种类型

    爬虫代理IP有多少种类型?大多数人都知道,没有大批量的ip进行支撑,爬虫工作者的工作将很难进行下去。下面是我们总结的一些代理ip的解决方法。一、第三方平台 很多平台可以免费获取到

  2. 12

    2019-02

    爬虫的专用代理IP怎么选择

    ​随着大数据时代的到来,爬虫已经成了获取数据的必不可少的方式,做过爬虫的想必都深有体会,爬取的时候莫名其妙 IP 就被网站封掉了,毕竟各大网站也不想自己的数据被轻易地爬走。

  3. 16

    2018-11

    访问网络受限用http代理ip

    互联网行业发展,我国的网民数量也是在不断增加,年老的有,年少的也有,在网络上遨游,丰富自己的精神世界。

  4. 09

    2018-11

    为什么需要爬虫代理IP?

    随着人类的生活发展越来越快,互联网信息的交流也会越来越频繁,对于代理IP的要求也会越来越高。

  5. 31

    2019-12

    爬虫使用代理防封IP

    在我们使用爬虫进行数据爬取的时候,爬着爬着就经常会遇到这种情况出现“HTTP Error 403:Forbidden”的提示,这是啥意思呢?其实他是一种http状态码,表示你在请求一个资源文件但是nginx不允许你

  6. 05

    2018-12

    代理IP广泛应用于爬虫领域了吗?

    ​大家都知道,互联网时代,从事爬虫工作的朋友非常多,在网络爬虫抓取信息的过程中,如果抓取频率高过了网站的设置阀值,将会被禁止访问。