换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800819380 售前客服
在线客服,实时响应

客户经理:
13326404693

473197630 QQ群
473197630

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

python爬虫使用代理IP的正确方式

发布时间:2018年11月22日 来源:智游代理 www.zhiyoudaili.com

现在从事爬虫行业的朋友非常多,但是很多都不知道Python爬虫程序里应该怎样来使用代理IP,今天小编就来分享一下这方面经验。这里以python3为例,请看下面介绍。


一、首先要导入 urllib的request,然后调用ProxyHandler,它可以接受代理IP的参数。

from urllib import request

px=request.ProxyHandler()


二、接着把IP地址以字典的形式放入其中,这个IP地址是我从站大爷的短效优质代理里随便提取的一个IP。设置键为http,当然有些是https的,然后后面就是IP地址以及端口号。

st.ProxyHandler({'http':'171.11.178.189:38458'})


三、接着再用build_opener()来构建一个opener对象。

opener=request.build_opener(px)


四、然后调用构建好的opener对象里面的open方法来发生请求。实际上urlopen也是类似这样使用内部定义好的opener.open(),这里就相当于我们自己重写。

req=request.Request('网址')

res=opener.open(req)

with open('a.html','wb') as f:

 f.write(res.read())


这就是小编带来的分享了,大家明白了吗?

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 爬虫用自建代理效果怎么样

爬虫是抓取数据的主要途径,现在很多企业都需要。但由于反爬虫的限制,想让爬虫顺利进行就要用代理IP,那么,爬虫用自建代理效果怎么样?自建服务器来获取代理IP的方法很好,稳定性也很强,但是需要大量的服务器。但是在正常情况下,爬虫用户并没有技术能力去维护服务器,这是因为对技术要求和成本都很高。作为用户来说,没有资源,也没有技术,所以并不推荐爬虫用户自建代理。现在有很多可以提供代理IP的商家,提供的IP质量都不错,并且稳定性也不错,所以建议爬虫用户试试付费的代理IP。如果没有目标,可以尝试智游代理,可以提供IP资源,还可以根据用户的需求来制定套餐,用来爬虫稳定又高效。... [阅读全文]

2 使用代理IP做爬虫的正确姿势

  没有被封过IP的爬虫工程师,肯定不是一个好的工程师。在爬虫工作的过程中,总是会遇到封IP的烦心事,今天这样爬,被封,明天那样爬,还是被封,到底要怎样爬呢,才不会被封。  很多人认为之所以被封IP,是因为爬取的太快了,确实是这样。那好吧,我就放慢速度,依然被封,再放慢速度,再被封,再再放慢速度,终于不被封了,但这速度和蜗牛没什么差别了,爬虫失去了它存在的意义。  很多人想到了使用代理IP来做爬虫,提升速度爬,被封,再换一个IP,再被封,再再换,再再被封,进入了“封了一个IP,还有千千万万IP”模式,工作效率终于提高了。  但这种方法也有一个致命的问题,上哪找这么多高效稳定的代理IP?  有人很快行动,写了个爬虫爬取网上的代理IP,然后筛选验证,最后封装在IP池里。结果发现,这种方法效率太低,IP质量太低,当然花费的成本也最低,只不过时间成本最高。  也有人迟疑,在网上经过各种筛选,找到了收费的代理IP,购买了一批。结果发现,这种方法一般般,勉强可以正常工作,但还达不到自己的预期,不是理想中的完美解决方案。  终于,有人找到了智游代理IP平台上的... [阅读全文]

热门标签

推荐阅读

  1. 22

    2018-11

    python爬虫使用代理IP的正确方式

    ​现在从事爬虫行业的朋友非常多,但是很多都不知道Python爬虫程序里应该怎样来使用代理IP,今天小编就来分享一下这方面经验。这里以python3为例,请看下面介绍。

  2. 23

    2018-11

    用代理上网的电脑怎样共享无线网络?

    ​平常我们都喜欢用代理服务器上网,那么在这种情况下如何共享无线网络呢?请看下面的步骤。

  3. 19

    2018-11

    python爬虫可以离开代理IP?

    做过python爬虫的人应该都知道,抓取网站数据多了,如果爬得过快,免不了触发网站的防爬机制,而最普遍的防爬手段,几乎用的同一招就是封IP,那么我们如何摆脱这个困境呢?

  4. 25

    2020-03

    爬虫时遇到反爬虫机制该如何处理?

    什么是网络爬虫?用简单一点的话来形容,就是实现浏览器的功能。通过指定url,将获取到用户所需的信息数据返回到客户端,而不需要一步步人工去操纵浏览器获取。有效的缩短了收集时间,

  5. 06

    2019-10

    分布式爬虫如何解决IP问题

    分布式爬虫如何解决IP问题?大数据时代来临,爬虫工作者的春天也随之来了。然而在我们进行爬虫业务时,却经常受到目标网站反爬虫机制的阻碍,尤其是分布式爬虫,因为采集信息量和采集

  6. 07

    2019-08

    如何使用智游代理保证爬虫顺利完成工作

    我们在进行网络爬虫业务时,常会碰到一些问题,不是返回一些乱七八糟的状态码,就是限制我们的ip地址,甚至封ip,或是什么内容都不返回,让我们自己来猜测。所以,网络爬虫工作这么的