换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800819380 售前客服
在线客服,实时响应

客户经理:
13326404693

473197630 QQ群
473197630

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

Python实现批量检测HTTP服务的状态

发布时间:2019年02月03日 来源:智游代理 www.zhiyoudaili.com

用Python实现批量测试一组url的可用性(可以包括HTTP状态、响应时间等)并统计出现不可用情况的次数和频率等。类似的,这样的脚本可以判断某个服务的可用性,以及在众多的服务提供者中选择最优的。


需求以及脚本实现的功能如下:


1.默认情况下,执行脚本会检测一组url的可用性。

2.如果可用,返回从脚本所在的机器到HTTP服务器所消耗的时间和内容等信息。

3.如果url不可用,则记录并提示用户,并显示不可用发生的时间。

4.默认情况下,允许最大的错误次数是200,数目可以自定义,如果达到允许的最大错误次数,则在输出信息的最后,根据每一个url做出错误统计。

5.如果用户手动停止脚本,则需要在输出信息的最后,根据每一个url做出错误统计。


脚本中涉及的一些技巧:


1.使用gevent并发处理多个HTTP请求,多个请求之间无须等待响应(gevent还有很多使用技巧,可再自行学习);

2.使用signal模块捕获信号,如果捕获到则处理并退出,避免主进程接收到KeyboardInterrupt直接退出但无法处理的问题;

3.注意留意脚本中关于统计次数方面的小技巧;


脚本运行效果图如下:

Python实现批量检测HTTP服务的状态

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 哪种代理ip适合网络爬虫

现时代大数据兴起,网络成为了重要的部分,线上运营就有了大量的信息数据。网商竞争,市场调查,数据分析,如何获取?成就网络爬虫问世,通过网络爬虫采集才能获取到大量的数据信息。爬虫采集也不是那么简单就能爬取到数据,网站的自我保护意思,将信息保护防止流失也同样做出了相对的策略,使用了反爬虫机制。正常的用户访问网站浏览时间较长,访问也不会太过于频繁,终端网站如何对对网络爬虫作出判断的,爬虫采集需要频繁并发对服务器进行访问,访问停留很短,需要不停请求响应返回信息数据,服务器很快很能察觉发现,对其ip进行限制访问。使用代理ip隐藏真实ip,突破反爬虫机制,使爬虫采集畅通无阻。代理ip分为很多种类,那哪种代理ip适合网络爬虫?高质量优质短效代理ip,是一款专业爬虫的代理ip,高质量高匿极速,稳定绿色安全,短效3-6分钟,可选择失效或者时间切换ip,防止ip被封遭受限制,具有海量的ip存储的短效优质代理ip是网络爬虫采集的首选。... [阅读全文]

2 爬虫需要大量IP怎样解决

现阶段,许多网站的反爬虫对策基本都是依据识别到的IP来分辨的,在我们浏览这一网站的时候IP便会被记录,假如操作方法不当,便会被服务器评定这一IP为爬虫,便会限制或是禁止这一IP的继续访问。那么,爬虫需要大量IP怎样解决呢?爬虫被限制最普遍的根本原因是爬取的频率过快,超出了目标网站设定的时长,便会被该服务器禁止访问。因此,许多爬虫工作者都是会挑选代理IP来协助工作正常开展。有时候使用了代理IP,但还是会遇到IP不够用的情况。假如再次购入,成本会提高。可以采用以下方法尝试解决:1.降低爬取速度,削减IP或是其它资源的损耗,但如此会降低工作的效率,很有可能会影响到工作的速度。2.提高爬虫技术,将多余的流程削减,将程序的工作效率提高,如此还可以削减对IP或其它资源的损耗。假如通过这两个方法依然不能处理问题,就只有再次购入代理IP了。智游代理高匿稳定,海量IP任意选,爬虫解决反爬虫完全无压力。... [阅读全文]

热门标签

推荐阅读

  1. 13

    2018-12

    Python爬虫如何使用代理IP

    一段自动抓取互联网信息的程序,从互联网上抓取对于我们有价值的信息,一般来说,Python爬虫程序很多时候都要使用代理的IP地址来爬取程序,

  2. 08

    2018-11

    代理IP软件对于爬虫工作者有多重要?

    近年来,社会科技发展迅速,尤其是互联网行业,大家都说现在是大数据时代,是python爬虫的天下,但python爬虫也是有天敌的,随着网络爬虫的日渐壮大,反爬虫也在不断进化

  3. 14

    2019-10

    爬虫代理IP有多少种类型

    爬虫代理IP有多少种类型?大多数人都知道,没有大批量的ip进行支撑,爬虫工作者的工作将很难进行下去。下面是我们总结的一些代理ip的解决方法。一、第三方平台 很多平台可以免费获取到

  4. 15

    2019-02

    网络蜘蛛安全隐患 web如何应对有害爬虫

    网络爬虫(Web Crawler),又称网络蜘蛛(Web Spider)或网络机器人(Web Robot),是一种按照一定的规则自动抓取万维网资源的程序或者脚本,已被广泛应用于互联网领域。

  5. 11

    2019-01

    为什么爬虫要使用代理IP

    做网络爬虫时,一般对代理IP的需求量比较大。因为在爬取网站信息的过程中,很多网站做了反爬虫策略,可能会对每个IP做频次控制。这样我们在爬取网站时就需要很多代理IP。

  6. 02

    2019-01

    爬虫IP被禁怎么解决?可以使用代理ip吗

    ​爬虫以前听上去好厉害好神秘的样子,用好了可以成就像Google、百度这样的索索引擎,用不好可以凭借不恰当的高并发分分钟崩掉一个小型网站。