换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800819380 售前客服
在线客服,实时响应

客户经理:
13326404693

473197630 QQ群
473197630

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

解决爬虫采集网站时被封IP的几种方法

发布时间:2018年10月15日 来源:智游代理 www.zhiyoudaili.com

本文主要介绍了使用爬虫采集网站时,解决被封IP常见的几种方法的相关资料,需要的朋友可以参考下。

 

方法1:

之前由于公司项目需要,采集过google地图数据,还有一些大型网站数据。

经验如下:

1.IP必须需要,如果有条件,可以直接使用成熟的代理IP服务商,类似像智游代理这种。

2.在有外网IP的机器上,部署代理服务器。

3.你的程序,使用轮训替换代理服务器来访问想要采集的网站。

好处:

1.程序逻辑变化小,只需要代理功能。

2.根据对方网站屏蔽规则不同,你只需要添加更多的代理就行了。

3.就算具体IP被屏蔽了,你可以直接把代理服务器下线就OK,程序逻辑不需要变化。

 

方法2:

有小部分网站的防范措施比较弱,可以伪装下IP,修改X-Forwarded-for即可绕过。

大部分网站么,如果要频繁抓取,一般还是要多IP。我比较喜欢的解决方案是国外VPS再配多IP,通过默认网关切换来实现IP切换,比HTTP代理高效得多,估计也比多数情况下的ADSL切换更高效。

 

方法3:

ADSL + 脚本,监测是否被封,然后不断切换 ip

设置查询频率限制

正统的做法是调用该网站提供的服务接口。

 

方法4:

1 user agent 伪装和轮换

2 使用代理 ip 和轮换

3 cookies 的处理,有的网站对登陆用户政策宽松些

友情提示:考虑爬虫给人家网站带来的负担,be a responsible crawler :)

 

方法5:

尽可能的模拟用户行为:

1、UserAgent经常换一换;

2、访问时间间隔设长一点,访问时间设置为随机数;

3、访问页面的顺序也可以随机着来

 

方法6:

网站封的依据一般是单位时间内特定IP的访问次数.

我是将采集的任务按 目标站点的IP进行分组 通过控制每个IP 在单位时间内发出任务的个数,来避免被封.当然,这个前题是你采集很多网站.如果只是采集一个网站,那么只能通过多外部IP的方式来实现了。

 

方法7:

1. 对爬虫抓取进行压力控制;

2. 可以考虑使用代理的方式访问目标站点。

-降低抓取频率,时间设置长一些,访问时间采用随机数

-频繁切换UserAgent(模拟浏览器访问)

-多页面数据,随机访问然后抓取数据

-更换用户IP

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 Python爬虫通过ip代理抓取网页

如果大家在采集网站信息的时候,特别频繁的来访问,非常容易被目标网站检测到从而进行屏蔽,解决这类情况的一种有效的方法就是使用代理IP,当我们连上网络上网的时候,电脑会被分配一个IP,提供给我们使用,如果我们频繁访问一个网站时,这个网站也会因为发现同一个ip地址访问多次而进行屏蔽的,这个时候更换IP地址访问是最好的解决方式,多个ip地址进行随机地轮流访问,减少被该网站检测到的概率。假如我们再使用多个不同的headers请求头,这样就会有多个ip+主机的组合,浏览时被发现的机率又更加降低了。关于代码中ip代理的使用,下面介绍一下:步骤:1、urllib2库中的ProxyHandler类,通过此类可以使用ip代理访问网页proxy_support=urllib2.ProxyHandler({}),其中参数是一个字典{‘类型':'代理ip:端口号'}2、定制、创建一个openeropener=urllib2.build_opener(proxy_support)3、(1)安装openerurlib2.install_opener(o... [阅读全文]

2 爬虫过程中的代理ip使用

  目前很多网站都会设置相对应的防爬虫机制,这是因为有一部分人在实际的爬虫主权过程中会进行恶意采集或者恶意攻击,通常情况下,防爬虫程序是通过IP来识别哪一些是机器人用户,因此可以使用可用的IP信息解决实际中的爬虫遇到的问题。  一般情况下爬虫开发人员为了能够正常的采集数据,速度上相对会慢一些,或者还有一部分爬虫开发者会在网上搜索一些免费的代理IP,但是这种免费的代理IP相对来讲稳定性和速度都不是很理想,因此怎么样在不侵犯对方利益的前提下正常的采集数据就成为了问题所在。但是解决方法还是有的。  第一,使用代理IP:在一个IP资源使用频率过高的时候,要想继续进行采集工作,就需要大量稳定的IP资源,网上免费的代理IP资源有很多,但是第一你得话时间去找,第二就算你找的到大批的但是不见得你能用的了。所以在这里给大家推荐一款代理IP——智游代理,智游代理有很多可用稳定的ip资源,可以满足大量的需求,这里可以给大家一个小技巧,在一个ip没有被禁止访问之前,及时换下一个ip,然后可以循环使用,节省一点资源。  第二,使用http代理:http代理可以起到增加缓冲... [阅读全文]

热门标签

推荐阅读

  1. 25

    2019-10

    爬虫IP被禁的解决方法

    爬虫以前听上去好厉害好神秘的样子,用好了可以成就像Google、百度这样的索索引擎,用不好可以凭借不恰当的高并发分分钟崩掉一个小型网站。写到这里想到12306每年扛住的并发请求量,觉得

  2. 13

    2019-08

    代理工程师告诉你分布式爬虫有什么优点

    爬虫抓取数据大家已经都不陌生,随着技术的发展及抓取数据量的增大,分布式爬虫走进了我们的工作。分布式爬虫就是可以让一个爬虫程序发到多台电脑上。分布式爬虫主要的优点就是提高工

  3. 24

    2019-10

    爬虫ip代理服务器的简要思路

    爬虫有的时候会遇到被禁ip的情况,这个时候你可以找一下代理网站,抓取一下ip,来进行动态的轮询就没问题了,也可以用别人做好的第三方ip代理平台,比如说crawlera,crawlera是一个利用代理IP

  4. 29

    2019-01

    新手学习python的方法

    ​Python是一门语法简洁、功能强大、上手简单的计算机编程语言,根据TIOBE最新排名,Python已超越C#,与Java,C,C++成为全球4大流行语言之一。

  5. 15

    2019-05

    爬虫代理IP的时长怎么计算

    在用爬虫爬取数据的时候,为了更顺利的爬取到我们需要的数据,这时我们就要使用爬虫代理。这样有了大量的IP后,我们就可以每请求几次就更换一个IP,保证了爬取的正常进行。那么,爬虫

  6. 14

    2019-10

    爬虫代理IP池怎么设计

    之前热门也许从来没听说过代理池,但是现在科技发达,智游代理设计了爬虫代理IP,下面简单介绍下爬虫代理IP池怎么设计的。代理池由四部分组成:ProxyGetter:代理获取接口,不过目前只有5个代