换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800819380 售前客服
在线客服,实时响应

客户经理:
13326404693

473197630 QQ群
473197630

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

python如何设置使用http代理

发布时间:2019年01月21日 来源:智游代理 www.zhiyoudaili.com

大家对HTTP代理应该都非常熟悉,它在很多方面都有着极为广泛的应用。HTTP代理分为正向代理和反向代理两种,后者一般用于将防火墙后面的服务提供给用户访问或者进行负载均衡,典型的有Nginx、HAProxy等。这里所讨论的是正向代理。


首先简单介绍一下,什么是HTTP代理?


HTTP代理本质上是一个Web应用,它和其他普通Web应用没有根本区别。 HTTP代理收到请求后,根据Header中Host字段的主机名和Get/POST请求地址综合判断目标主机,建立新的HTTP请求并转发请求数据,并将收到的响应数据转发给客户端。


HTTP代理


接下来步入正题,Python程序中设置HTTP代理


urllib2/urllib 代理设置:urllib2是Python标准库,功能很强大,只是使用起来稍微麻烦一点。在Python 3中,urllib2不再保留,迁移到了urllib模块中。urllib2中通过ProxyHandler来设置使用代理服务器。


proxy_handler=urllib2.ProxyHandler({'http': '121.193.143.249:80'})

opener=urllib2.build_opener(proxy_handler)

r=opener.open('http://httpbin.org/ip')

print(r.read())

proxy_handler=urllib2.ProxyHandler({'http': '121.193.143.249:80'})

opener=urllib2.build_opener(proxy_handler)

r=opener.open('http://httpbin.org/ip')

print(r.read())


也可以用install_opener将配置好的opener安装到全局环境中,这样所有的urllib2.urlopen都会自动使用代理。


urllib2.install_opener(opener)

r=urllib2.urlopen('http://httpbin.org/ip')

print(r.read())


在Python 3中,使用urllib:


proxy_handler=urllib.request.ProxyHandler({'http': 'http://121.193.143.249:80/'})

opener=urllib.request.build_opener(proxy_handler)

r=opener.open('http://httpbin.org/ip')

print(r.read())

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 爬虫IP被封了怎么解决

在数据采集或者爬虫的工作中,我们不可避免的会遭遇反爬封锁,所以就会有爬虫的攻防,在攻和守之间两股力量不断的抗衡。接下来就讲讲在数据采集或爬虫时ip被限制的几种解决方案问题:解决方案一:建议一定要使用代理IP;在有外网IP的机器上,部署爬虫代理服务器;使用轮训替换代理服务器来访问想要采集的网站。这样的话,你的程序逻辑变化小,只需要代理功能就可以,而且根据对方网站屏蔽规则不同,你只需要添加不同的代理就可以了。再者,就算具体IP被屏蔽了,你可以直接把代理服务器下线就OK,程序逻辑不需要变化。解决方案二:useragent伪装和轮换,使用代理ip和轮换,cookies的处理。解决方案三:使用ADSL+脚本,监测是否被封,然后不断切换ip;设置查询频率限制,也就是限制调用该网站提供的服务接口。解决方案四:网站封IP的依据一般是单位时间内特定IP的访问次数过多,采集很多网站时可以将采集的任务按目标站点的IP进行分组,然后通过控制每个IP在单位时间内发出任务的个数来避免被封。解决方案五:尽可能的模拟用户行为,比如UserAgent经常换一换,访问时间间隔设长一... [阅读全文]

2 哪种代理ip适合网络爬虫

现时代大数据兴起,网络成为了重要的部分,线上运营就有了大量的信息数据。网商竞争,市场调查,数据分析,如何获取?成就网络爬虫问世,通过网络爬虫采集才能获取到大量的数据信息。爬虫采集也不是那么简单就能爬取到数据,网站的自我保护意思,将信息保护防止流失也同样做出了相对的策略,使用了反爬虫机制。正常的用户访问网站浏览时间较长,访问也不会太过于频繁,终端网站如何对对网络爬虫作出判断的,爬虫采集需要频繁并发对服务器进行访问,访问停留很短,需要不停请求响应返回信息数据,服务器很快很能察觉发现,对其ip进行限制访问。使用代理ip隐藏真实ip,突破反爬虫机制,使爬虫采集畅通无阻。代理ip分为很多种类,那哪种代理ip适合网络爬虫?高质量优质短效代理ip,是一款专业爬虫的代理ip,高质量高匿极速,稳定绿色安全,短效3-6分钟,可选择失效或者时间切换ip,防止ip被封遭受限制,具有海量的ip存储的短效优质代理ip是网络爬虫采集的首选。... [阅读全文]

热门标签

推荐阅读

  1. 06

    2019-02

    代理IP无法连接网络

    ​随着网路的发展,一些业务的需要,代理IP逐渐被大家认知和熟悉,形象的说:它是网络信息的中转站。当我们使用代理IP 的时候可能会出现无法连接网络的情况

  2. 24

    2020-03

    为什么用了代理IP做爬虫还是被识别?

    “封IP是不可能封IP的,这辈子都不可能封IP的,左手高匿代理IP​,右手优质爬虫程序,没有什么能够阻挡,我对高效工作的向往”,一个爬虫工作者如此骄傲的说。然而,理想很丰满,现实很

  3. 12

    2019-01

    ip代理保护网络用户上网安全

    ​在互联网日益发达的今天,我们每天都在使用电脑上网网游戏、购物等等等,这成为了现代人必不可少的内容之一。

  4. 20

    2018-11

    爬虫刚搭好遇到代理IP被封怎么办?

    大数据时代,爬虫行业正在如火如荼的进行,对于爬虫工作者,搭好了分布式爬虫,正准备让程序用代理IP去抓取数据,服务器也搭好了,突然发现,你办公室的IP被封掉了,这时候怎么办

  5. 15

    2019-05

    HTTP代理的原理解析

    在整个互联网的Web结构中,HTTP代理服务器是一个出现频率极高的组件(其他还有浏览器、缓存服务器、Web服务器、DNS解析服务器等),理解HTTP代理服务器的原理有助于我们更好地认识Web架构。

  6. 27

    2018-11

    代理IP不足时爬虫该怎么办?

    ​互联网时代,爬虫和反爬虫是一对欢喜冤家,在Python爬虫和反爬虫的对弈中,没有绝对的胜利方。