换ip软件,代理ip软件,更改ip地址-智游代理
您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

python 怎样设置http代理

发布时间:2018年11月27日 来源:本站

HTTP代理大家应该听说过很多遍了,小编前面的文章中介绍了很多相关的知识,今天给大家介绍一下在python程序中要如何设置HTTP代理,请看下面的介绍。


  1. urllib2/urllib 代理设置

  urllib2是Python标准库,功能很强大,只是使用起来稍微麻烦一点。在Python 3中,urllib2不再保留,迁移到了urllib模块中。urllib2中通过ProxyHandler来设置使用代理服务器。

  proxy_handler = urllib2.ProxyHandler({'http': '121.193.143.249:80'})

  opener = urllib2.build_opener(proxy_handler)

  r = opener.open('http://httpbin.org/ip')

  print(r.read())

  也可以用install_opener将配置好的opener安装到全局环境中,这样所有的urllib2.urlopen都会自动使用代理。

  urllib2.install_opener(opener)

  r = urllib2.urlopen('http://httpbin.org/ip')

  print(r.read())

  在Python 3中,使用urllib。

  proxy_handler = urllib.request.ProxyHandler({'http': 'http://121.193.143.249:80/'})

  opener = urllib.request.build_opener(proxy_handler)

  r = opener.open('http://httpbin.org/ip')

  print(r.read())

  2.requests 代理设置

  requests是目前最优秀的HTTP库之一,也是我平时构造http请求时使用最多的库。它的API设计非常人性化,使用起来很容易上手。给requests设置代理很简单,只需要给proxies设置一个形如 {'http': 'x.x.x.x:8080', 'https': 'x.x.x.x:8080'} 的参数即可。其中http和https相互独立。

  In [5]: requests.get('http://httpbin.org/ip', proxies={'http': '121.193.143.249:80'}).json()

  Out[5]: {'origin': '121.193.143.249'}

  可以直接设置session的proxies属性,省去每次请求都要带上proxies参数的麻烦。

  s = requests.session()

  s.proxies = {'http': '121.193.143.249:80'}

  print(s.get('http://httpbin.org/ip').json())


以上就是全部内容了,大家明白了吗?程序员大牛可以动手试试哦。

按字母排序文章

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

相关文章内容简介

1 什么是分布式爬虫?

使用爬虫就是可以快速、大量的完成数据抓取,满足抓取上百、上千甚至更多的网页需求。如果在大量抓取的时候,单机式爬虫的抓取速度就很有限了。为了提高效率,可以使用多爬虫的框架。比如分布式爬虫。什么是分布式爬虫?1.单机式爬虫,我们使用scrapy框架进行爬虫的时候,使用的就是单击爬虫,只能在一台电脑上运行,其他电脑是无法另一台电脑上的内容的。2.分布式爬虫,可以让很多台电脑都使用同一个的爬虫程序,将爬虫分发得到多台电脑上,这样可以提高爬虫的速度,也就是分布式爬虫。以上是对分布式爬虫的简单介绍,无论是单机式爬虫还是分布式爬虫,在使用的时候都离不开代理IP。使用代理IP才能保证工作的继续进行,大大提高了爬虫效率。... [阅读全文]

2 代理工程师告诉你分布式爬虫有什么优点

爬虫抓取数据大家已经都不陌生,随着技术的发展及抓取数据量的增大,分布式爬虫走进了我们的工作。分布式爬虫就是可以让一个爬虫程序发到多台电脑上。分布式爬虫主要的优点就是提高工作效率,很多爬虫工作者任务量巨大,如果使用单机式爬虫就需要很多时间才能完成工作。如果使用分布式爬虫,只需要准备多台电脑,就能很大的提高工作效率。爬虫要提高工作效率更离不开代理IP的帮助,智游代理提供优质的网络IP,操作很简单,有专业的技术人员在线指导,网络小白也可以得心应手的使用。... [阅读全文]

热门标签

推荐阅读

  1. 15

    2019-05

    爬虫代理IP的时长怎么计算

    在用爬虫爬取数据的时候,为了更顺利的爬取到我们需要的数据,这时我们就要使用爬虫代理。这样有了大量的IP后,我们就可以每请求几次就更换一个IP,保证了爬取的正常进行。那么,爬虫

  2. 10

    2018-11

    微信电脑版怎么使用网络代理上网?

    微信如今已经是人人都离不开的社交渠道了,不但手机上必装,很多人的电脑上也得来一个,办公啥的会方便很多。

  3. 21

    2019-05

    爬虫加代理的三种方式

    爬虫的时候,我们用同一个ip反复爬一个网站有可能会被封,这时候就需要使用到代理,下面为大家介绍爬虫加代理的三种方式,一起来了解看看吧!1.Selenium调用代理 from selenium import webdriver

  4. 29

    2019-05

    软营销中爬虫代理ip能起到什么作用

    软营销中爬虫代理ip能起到什么作用?对于很多个人经营的微商来说,他们通常会通过在贴吧发帖的方式来运营自己的软营销。但即使是偶尔使用过贴吧的用户都知道,百度对于发帖的要求是非

  5. 17

    2019-06

    爬虫代理IP不足该怎么解决

    目前,很多网站的反爬虫策略都是根据识别到的IP来分辨的,当我们访问这个网站的时候IP就会被记录,如果操作不当,就会被服务器认定这个IP为爬虫,就会限制或者禁止这个IP的继续访问。那

  6. 22

    2018-11

    python爬虫使用代理IP的正确方式

    ​现在从事爬虫行业的朋友非常多,但是很多都不知道Python爬虫程序里应该怎样来使用代理IP,今天小编就来分享一下这方面经验。这里以python3为例,请看下面介绍。