换ip软件,代理ip软件,更改ip地址-智游代理
您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

分布式爬虫代理IP有什么解决方案

发布时间:2018年10月13日 来源:本站

没有代理IP,爬虫工作将寸步难行,所以很多爬虫工程师都需要去选购高效稳定的代理IP。有了优质代理IP后,是不是就可以高枕无忧了呢?事情没有那么简单,还需要优化方案,合理分配资源,提高工作效率,更高效更快速更稳定地进行爬虫工作。

 

方案一、每个进程从接口API中随机取一个IP列表(比如一次提取100IP)来循环使用,失败则再调用API获取,大概逻辑如下:

 

1、每个进程(或线程),从接口随机取回一批IP回来,循环尝试IP列表去抓取数据;

2、如果访问成功,则继续抓取下一条;

3、如果失败了(比如超时、出现验证码等),再从接口取一批IP,继续尝试。

方案缺点:每个IP都是有有效期的,如果提取了100个,当使用了第10个的时候,可能后面的大部分都失效了。如果你设置HTTP请求的时候连接时间超时为3秒,读取时间超时为5秒,那你将会有可能浪费3-8秒的时间,说不定这3-8秒已经可以抓取几十次了。

 

方案二:每个进程从接口API中随机取一个IP来使用,失败则再调用API获取一个IP,大概逻辑如下:

 

1、每个进程(或线程),从接口随机取回一个IP来,用这个IP去访问资源;

2、如果访问成功,则继续抓下一条;

3、如果失败了(比如超时、出现验证码等),再从接口随机取一个IP,继续尝试。

方案缺点:调用API获取IP的行为非常频繁,会对代理服务器造成非常大的压力,影响API接口稳定,可能会被限制提取。这种方案也不适合,不能持久稳定的运行。


方案三:先提取大量IP导入本地数据库,从数据库里面取IP,大概逻辑如下:


1、在数据库里面建一个表,写一个导入脚本,每分钟请求多少次API(咨询代理IP服务商建议),把IP列表导入到数据库里面;

2、在数据库里面记录好:导入时间、IPPort、过期时间、IP可用状态 等字段;

3、写一个抓取脚本,抓取脚本从数据库里面读取可用IP,每个进程从数据库获取一个IP进行使用;

4、执行抓取,对结果进行判断,处理cookie等,只要出现验证码或者失败就放弃这个IP,重新换一个IP

 

这种方案有效地避开了代理服务器资源的消耗,有效地分配代理IP的使用,更加的高效和稳定,保障了爬虫工作的持久性和稳定性。

按字母排序文章

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

相关文章内容简介

1 什么是分布式爬虫?

使用爬虫就是可以快速、大量的完成数据抓取,满足抓取上百、上千甚至更多的网页需求。如果在大量抓取的时候,单机式爬虫的抓取速度就很有限了。为了提高效率,可以使用多爬虫的框架。比如分布式爬虫。什么是分布式爬虫?1.单机式爬虫,我们使用scrapy框架进行爬虫的时候,使用的就是单击爬虫,只能在一台电脑上运行,其他电脑是无法另一台电脑上的内容的。2.分布式爬虫,可以让很多台电脑都使用同一个的爬虫程序,将爬虫分发得到多台电脑上,这样可以提高爬虫的速度,也就是分布式爬虫。以上是对分布式爬虫的简单介绍,无论是单机式爬虫还是分布式爬虫,在使用的时候都离不开代理IP。使用代理IP才能保证工作的继续进行,大大提高了爬虫效率。... [阅读全文]

2 代理工程师告诉你分布式爬虫有什么优点

爬虫抓取数据大家已经都不陌生,随着技术的发展及抓取数据量的增大,分布式爬虫走进了我们的工作。分布式爬虫就是可以让一个爬虫程序发到多台电脑上。分布式爬虫主要的优点就是提高工作效率,很多爬虫工作者任务量巨大,如果使用单机式爬虫就需要很多时间才能完成工作。如果使用分布式爬虫,只需要准备多台电脑,就能很大的提高工作效率。爬虫要提高工作效率更离不开代理IP的帮助,智游代理提供优质的网络IP,操作很简单,有专业的技术人员在线指导,网络小白也可以得心应手的使用。... [阅读全文]

热门标签

推荐阅读

  1. 31

    2019-01

    python如何实现http代理

    说到代理其实代理的意思就跟带话差不多,比如说,A要跟C通信,但是没有通信渠道,这个时候就需要一个A与C之间的连接,来帮助传话,这个原理明白了,实现代理就简单易懂了。

  2. 05

    2019-08

    爬虫代理IP几种常见的解决办法

    众所周知,一个IP做不了爬虫工作,没有大量的IP支撑,爬虫工作者寸步难行。那么爬虫代理IP哪里来呢?这难不倒爬虫工程师们,他们有好几种解决方案,让我们一起来看看吧。一、爬取代理IP

  3. 08

    2018-11

    爬虫使用代理防封IP

    在写爬虫爬取数据的时候,经常会遇到“HTTP Error 403: Forbidden”的提示,其实它只是一个HTTP状态码,表示你在请求一个资源文件但是nginx不允许你查看。

  4. 07

    2019-03

    爬虫使用HTTP代理IP做什么?

    ​你对HTTP代理IP这个字眼陌生吗?实际上这个字眼离你并不遥远。HTTP代理IP是将用户的IP进行更换,帮助用户在网上做一些事情。

  5. 21

    2019-06

    如何选择稳定可靠的爬虫代理IP

    如何选择稳定可靠的爬虫代理IP?由于开python培训有讲过爬虫的缘故,这个问题已经被ask无数次了,一般问的基友也都是爬虫防ban用的,总体来讲,质量好的都不便宜,便宜的质量都比较渣,一

  6. 04

    2018-12

    爬虫工作者缺数据可以用代理ip吗?

    ​近几年来互联网行业飞速发展,搞人工智能和大数据应用没有数据,好比“巧妇难为无米之炊”的尴尬。要想快速获得数据,最好的办法就是使用Python爬虫,批量从互联网搞“拿来主义”。