换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800819380 售前客服
在线客服,实时响应

客户经理:
13326404693

473197630 QQ群
473197630

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

代理IP怎么解决爬虫被封的问题

发布时间:2018年10月15日 来源:智游代理 www.zhiyoudaili.com

在编写爬虫爬取数据的时候,尤其是爬取大量数据的时候,因为很多网站都有反爬虫措施,所以很容易被封IP,就不能继续爬了。这个时候该怎么办呢?我们可以使用动态代理ip来解决这个问题。


在同事的介绍下,买了智游代理的动态高质量代理IP,接下来就是使用代理IP来继续爬虫工作了。通过python官方文档得知,可用urllib库的request方法中的ProxyHandler方法,build_opener方法,install_opener方法来使用代理IP。


官方文档很官方,有点难以理解,下面是部分关键文档,一起来看下:


class urllib.request.ProxyHandler(proxies=None)

Cause requests to go through a proxy. If proxies is given, it must be a dictionary mapping protocol names to URLs of proxies.(通过代理方法请求,如果给定一个代理,它必须是一个字典映射,key为协议,value为URLs或者代理ip。)


urllib.request.build_opener([handler, ...])

Return an OpenerDirector instance, which chains the handlers in the order given.(build_opener方法返回一个链接着给定顺序的handler的OpenerDirector实例。)


urllib.request.install_opener(opener)

Install an OpenerDirector instance as the default global opener.(install_opener方法安装OpenerDirector实例作为默认的全局opener。)


是不是云里雾里的,如果这样理顺下,就会发现其实很简单:

1、将代理IP及其协议载入ProxyHandler赋给一个opener_support变量;

2、将opener_support载入build_opener方法,创建opener;

3、安装opener。


具体代码如下:

from urllib import request

def ProxySpider(url, proxy_ip, header):

opener_support = request.ProxyHandler({'http': proxy_ip}) 

opener = request.build_opener(opener_support) 

request.install_opener(opener) 

req = request.Request(url, headers=header)

rsp = request.urlopen(req).read()

return rsp


有了代理IP,又学会了使用代理IP来做爬虫,这下可以不用担心被目标网站限制了,爬虫工作效率直线上线,按时完成任务不在话下。

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 爬虫用自建代理效果怎么样

爬虫是抓取数据的主要途径,现在很多企业都需要。但由于反爬虫的限制,想让爬虫顺利进行就要用代理IP,那么,爬虫用自建代理效果怎么样?自建服务器来获取代理IP的方法很好,稳定性也很强,但是需要大量的服务器。但是在正常情况下,爬虫用户并没有技术能力去维护服务器,这是因为对技术要求和成本都很高。作为用户来说,没有资源,也没有技术,所以并不推荐爬虫用户自建代理。现在有很多可以提供代理IP的商家,提供的IP质量都不错,并且稳定性也不错,所以建议爬虫用户试试付费的代理IP。如果没有目标,可以尝试智游代理,可以提供IP资源,还可以根据用户的需求来制定套餐,用来爬虫稳定又高效。... [阅读全文]

2 使用代理IP做爬虫的正确姿势

  没有被封过IP的爬虫工程师,肯定不是一个好的工程师。在爬虫工作的过程中,总是会遇到封IP的烦心事,今天这样爬,被封,明天那样爬,还是被封,到底要怎样爬呢,才不会被封。  很多人认为之所以被封IP,是因为爬取的太快了,确实是这样。那好吧,我就放慢速度,依然被封,再放慢速度,再被封,再再放慢速度,终于不被封了,但这速度和蜗牛没什么差别了,爬虫失去了它存在的意义。  很多人想到了使用代理IP来做爬虫,提升速度爬,被封,再换一个IP,再被封,再再换,再再被封,进入了“封了一个IP,还有千千万万IP”模式,工作效率终于提高了。  但这种方法也有一个致命的问题,上哪找这么多高效稳定的代理IP?  有人很快行动,写了个爬虫爬取网上的代理IP,然后筛选验证,最后封装在IP池里。结果发现,这种方法效率太低,IP质量太低,当然花费的成本也最低,只不过时间成本最高。  也有人迟疑,在网上经过各种筛选,找到了收费的代理IP,购买了一批。结果发现,这种方法一般般,勉强可以正常工作,但还达不到自己的预期,不是理想中的完美解决方案。  终于,有人找到了智游代理IP平台上的... [阅读全文]

热门标签

推荐阅读

  1. 29

    2018-11

    爬虫代理技术有什么优点?

    ​在如今这个互联网发达的时代,很多工作都要通过互联网交易,这些互联网工作使用到爬虫代理技术的机会有很多。那么,爬虫的代理技术能帮助互联网工作哪些方面?或者说它有什么优点呢

  2. 10

    2018-11

    爬虫怎样设置代理ip池

    在网络迅速发展的今天,互联网企业层出不穷,爬虫工作者也越来越多,大家都知道,代理ip是爬虫工作者的一个有力助手

  3. 08

    2020-01

    爬虫过程中的代理ip使用

    目前很多网站都会设置相对应的防爬虫机制,这是因为有一部分人在实际的爬虫主权过程中会进行恶意采集或者恶意攻击,通常情况下,防爬虫程序是通过IP来识别哪一些是机器人用户,因此可

  4. 19

    2018-11

    python爬虫可以离开代理IP?

    做过python爬虫的人应该都知道,抓取网站数据多了,如果爬得过快,免不了触发网站的防爬机制,而最普遍的防爬手段,几乎用的同一招就是封IP,那么我们如何摆脱这个困境呢?

  5. 09

    2018-11

    为何有那么多网络代理ip资源?

    很多网络代理ip资源初衷都是差不多,就是为了方便大众人群的使用,另外这种功能还能保护人们的隐私,很多需求人群在了解到这匹黑马之后都毅然决然地选择了这个平台

  6. 24

    2018-11

    爬虫代理ip应该怎么选择?

    ​很多爬虫工作者选择代理IP的时候不知道该怎么去选择,需要关注哪些指标和参数,满目地选择代理IP,导致跳了不少的坑,绕了不少的弯路。