换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800819380 售前客服
在线客服,实时响应

客户经理:
13326404693

473197630 QQ群
473197630

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

Python实现批量检测HTTP服务的状态

发布时间:2019年02月03日 来源:智游代理 www.zhiyoudaili.com

用Python实现批量测试一组url的可用性(可以包括HTTP状态、响应时间等)并统计出现不可用情况的次数和频率等。类似的,这样的脚本可以判断某个服务的可用性,以及在众多的服务提供者中选择最优的。


需求以及脚本实现的功能如下:


1.默认情况下,执行脚本会检测一组url的可用性。

2.如果可用,返回从脚本所在的机器到HTTP服务器所消耗的时间和内容等信息。

3.如果url不可用,则记录并提示用户,并显示不可用发生的时间。

4.默认情况下,允许最大的错误次数是200,数目可以自定义,如果达到允许的最大错误次数,则在输出信息的最后,根据每一个url做出错误统计。

5.如果用户手动停止脚本,则需要在输出信息的最后,根据每一个url做出错误统计。


脚本中涉及的一些技巧:


1.使用gevent并发处理多个HTTP请求,多个请求之间无须等待响应(gevent还有很多使用技巧,可再自行学习);

2.使用signal模块捕获信号,如果捕获到则处理并退出,避免主进程接收到KeyboardInterrupt直接退出但无法处理的问题;

3.注意留意脚本中关于统计次数方面的小技巧;


脚本运行效果图如下:

Python实现批量检测HTTP服务的状态

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 爬虫使用代理IP有什么优势

当我们要使用爬虫时,有经验的工程师肯定会配合代理IP来使用,而且网络上有很多文章也建议要使用爬虫代理IP,特别是一些优质代理IP,那么,爬虫使用代理IP有什么优势呢?爬虫在数据采集过程中,想要提高爬取的效率,就肯定会触发网站的“反爬虫措施”,限制爬虫的IP。而使用了代理IP的爬虫就不一样了,由于爬虫的IP在限制之前会不断的改变,所以爬虫就可以连续不断的工作了。爬虫使用代理IP之后,留在网站上的IP信息就是代理服务器的IP,这样就“隐藏”了爬虫的真实IP,保证了用户的网络安全。提高效率,保障安全,正是爬虫使用代理IP的优质,不过需要注意的是,只有高匿的代理IP才可以实现这一目标。... [阅读全文]

2 代理ip在爬虫与优化推广的运用

想来大多数人都比较了解代理ip,其通常被运用网站爬虫及其优化推广这两种场景设计。那接下来,随着小编一起来看看吧。在网络数据抓取这一层面运用ip代理爬虫,我们都需要了解什么?通常情况下我们都在爬虫工作上,或是某些平台网站的软网上都是看到关于爬虫中提到的高频率请求并发等字眼,请求便是新建的请求数,如果是每秒新建请求,便是每一秒能够新传出多少条HTTP请求。而高并发是指每秒的并非数,也是指每秒可同时运用的HTTP网页链接。如每秒新建10条请求,代理ip的存活有效时间是3分钟,也便是180秒。如果代理ip第一秒传出去10条新的请求,那同时也便是10个并发了,如果第二秒又增加了10条,那同时也会增加10条并非。如果第一秒的请求数没有关闭,那第二秒总共就有20条并发,以此计算,代理ip存活时长180秒有多少条并发,便是10条请求最高是支持10条并发,也便是10/秒*180/ip存活时间=1800条并发。那大家知道在通常情况下我们都会在什么样营销模式运用换ip软件吗?而对于运用代理ip能够做如下优化推广:1、网盟推广营销:有些类似于找个网络数据代销商,用手上有... [阅读全文]

热门标签

推荐阅读

  1. 17

    2019-01

    代理ip与爬虫有什么关系

    爬虫一直是python使用的一个重要部分,而许多网站也为此做了许多反爬措施,其中爬虫访问过于频繁直接封ip地址也作为一种“伤敌一千,自损八百”的方法被许多网站采用

  2. 29

    2019-05

    软营销中爬虫代理ip能起到什么作用

    软营销中爬虫代理ip能起到什么作用?对于很多个人经营的微商来说,他们通常会通过在贴吧发帖的方式来运营自己的软营销。但即使是偶尔使用过贴吧的用户都知道,百度对于发帖的要求是非

  3. 10

    2019-07

    为什么爬虫需要代理IP?

    在爬虫的过程中,我们经常会遇见很多网站采取了防爬取技术,或者说因为自己采集网站信息的强度和采集速度太大,给对方服务器带去了太多的压力,所以你一直用同一个代理IP爬取这个网页

  4. 16

    2019-09

    解决多个爬虫代理IP的方案

    网络数据量越来越大,从网页中获取信息变得越来越困难,如何有效地抓取并利用信息,已成为网络爬虫一个巨大的挑战。网络中出售代理IP资源的渠道很多,总体来讲,质量好的都不便宜,便

  5. 03

    2019-02

    Python实现批量检测HTTP服务的状态

    ​​本文给大家分享的是一个使用python实现的批量检测web服务可用性的脚本代码,主要功能有测试一组url的可用性(可以包括HTTP状态、响应时间等)并统计出现不可用情况的次数和频率等。

  6. 29

    2018-11

    网络代理的类型及实现原理

    大家都知道,网络代理服务根据工作层次,一般可分为应用层代理、传输层代理和SOCKS代理。那么它们之间有哪些区别呢?实现原理是怎么样的呢?请看下面的介绍。