换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800819380 售前客服
在线客服,实时响应

客户经理:
13326404693

473197630 QQ群
473197630

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

python怎么验证http代理ip

发布时间:2018年11月14日 来源:智游代理 www.zhiyoudaili.com

社会科技在不断的进步,互联网行业发展迅速,有很多朋友不断加入互联网大军,今天我们来说一下互联网大军中的爬虫工作。我们都知道一般的网站都有反爬虫的系统限制,我们长时间对一个网站进行抓取的时候可能会遇到IP被封的情况,其实这样的情况,我们可以使用代理IP来解决,来突破IP服务器对IP的限制。那么我们怎么知道HTTP代理IP是可以使用的呢?这个时候我们可以用python 验证一下,下面跟大家分享一下验证的具体方法:


image.png


可以使用requests包进行验证:import requests try: requests.get('http://wenshu.court.gov.cn/', proxies={"http":"http://121.31.154.12:8123"}) except: print 'connect failed' else: print 'success'

  把验证通过的IP保存在redis里面,在IP被禁止的时候可以从redis中取出来使用。

  也使用telnet来验证的方法:

  mport telnetlib

  try:

  telnetlib.Telnet('127.0.0.1', port='80', timeout=20)

  except:

  print 'connect failed'

  else:

  print 'success'


这就是小编所带来的分享了,大家明白了吗?

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 爬虫使用不同的IP代理为什么效果不一样

我们爬虫在选择IP代理的时候,会发现有特别多的不同的IP提供商,价格差异也很大,从几块钱一天不限量的到几千块钱一天的都有,而且都说自己IP质量很好,都是高匿IP,但是实际使用起来,却发现IP可用率、连通速度都大相径庭,IP代理质量相同怎么效果不同?有些用户反映,在使用IP代理的过程中有时候会遇到这样的情况,即使用同样质量的一批不同的IP代理加上相同的策略访问同一个网站,有的成功有的失败,这是为什么呢?当下很多IP代理池,如果没有特殊注明为独享IP池,都是共享IP池。免费IP代理是最大的共享IP池,面向整个网络用户共享,收费IP代理则是面向自家的付费用户(超低价的普通代理和开放代理等除外,它们本质上还是网上收集的免费IP代理)。既然是共享IP代理池,那么不可避免的就会有冲突发生,会有部分用户使用相同的部分IP访问相同的网站。所以,在使用IP代理访问网站的过程中,会发现有一小部分才刚开始使用,就被反爬策略识别了。那么有什么好的解决办法呢?一是选择购买IP池大的共享IP池,IP池越大,项目冲突的几率就越小;比如智游代理的独享IP池,避免一个IP同时多个... [阅读全文]

2 Python爬虫通过ip代理抓取网页

如果大家在采集网站信息的时候,特别频繁的来访问,非常容易被目标网站检测到从而进行屏蔽,解决这类情况的一种有效的方法就是使用代理IP,当我们连上网络上网的时候,电脑会被分配一个IP,提供给我们使用,如果我们频繁访问一个网站时,这个网站也会因为发现同一个ip地址访问多次而进行屏蔽的,这个时候更换IP地址访问是最好的解决方式,多个ip地址进行随机地轮流访问,减少被该网站检测到的概率。假如我们再使用多个不同的headers请求头,这样就会有多个ip+主机的组合,浏览时被发现的机率又更加降低了。关于代码中ip代理的使用,下面介绍一下:步骤:1、urllib2库中的ProxyHandler类,通过此类可以使用ip代理访问网页proxy_support=urllib2.ProxyHandler({}),其中参数是一个字典{‘类型':'代理ip:端口号'}2、定制、创建一个openeropener=urllib2.build_opener(proxy_support)3、(1)安装openerurlib2.install_opener(o... [阅读全文]

热门标签

推荐阅读

  1. 24

    2018-11

    怎样设置代理服务器节省网络费用

    正常情况下,浏览器发送的浏览请求会首先传到ISP服务器,由ISP的DNS把URL翻译成IP、返回给浏览器,然后浏览器连上该IP对应的网站,下载网页。

  2. 13

    2019-09

    python爬虫怎能离开代理IP

    做过python爬虫的人应该都知道,抓取网站数据多了,如果爬得过快,免不了触发网站的防爬机制,而最普遍的防爬手段,几乎用的同一招就是封IP。解决方案有2个:

  3. 13

    2019-11

    爬虫代理IP有多少个种类

    爬虫代理IP有多少个种类?众所周知,没有大量的IP支撑,爬虫工作者寸步难行。那么爬虫代理IP从何而来呢?以下是我们总结的一些代理IP的解决方案。

  4. 23

    2019-05

    如何通过动态VPS代理IP保证爬虫程序稳定运行

    使用爬虫代理IP的最佳方案是用智游代理在服务器上维护一个IP池,这样才能更有效的保障爬虫工作的高效稳定持久的运行,那么怎么在本地维护IP池呢?一、在代理服务商认可的调用API频率下尽

  5. 10

    2018-11

    python如何使用http代理

    社会科技发展迅速,相信大家对HTTP代理应该都非常熟悉,它在很多方面都有着极为广泛的应用。首先简单介绍一下,什么是HTTP代理呢?

  6. 30

    2018-12

    稳定的爬虫代理IP如何选择

    ​大数据时代,爬虫工作者已经成为互联网数据公司的关键性职位,要想有效突破反爬虫机制继续高频率抓取,使用一款优质的代理IP是必不可少的