换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800819380 售前客服
在线客服,实时响应

客户经理:
13326404693

473197630 QQ群
473197630

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

python怎么设置代理ip

发布时间:2018年11月19日 来源:智游代理 www.zhiyoudaili.com

现如今爬虫行业正在如火如荼的发展,在使用爬虫的时候,经常会遇见所要爬取的网站采取了反爬取技术,高强度,高效率的爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,这里讲述一个爬虫技巧,就是python怎么设置代理IP。


首先来看一下配置环境:安装requests库;安装bs4库;安装lxml库,接下来直接进入代码展示:

  from bs4 import BeautifulSoup

  import requests

  import random

  def get_ip_list(url, headers):

  web_data = requests.get(url, headers=headers)

  soup = BeautifulSoup(web_data.text, 'lxml')

  ips = soup.find_all('tr')

  ip_list = []

  for i in range(1, len(ips)):

  ip_info = ips[i]

  tds = ip_info.find_all('td')

  ip_list.append(tds[1].text + ':' + tds[2].text)

  return ip_list

  def get_random_ip(ip_list):

  proxy_list = []

  for ip in ip_list:

  proxy_list.append('http://' + ip)

  proxy_ip = random.choice(proxy_list)

  proxies = {'http': proxy_ip}

  return proxies

  if __name__ == '__main__':

  url = 'http://www.xicidaili.com/nn/'

  headers = {

  'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'

  }

  ip_list = get_ip_list(url, headers=headers)

  proxies = get_random_ip(ip_list)

  print(proxies)

  代理IP的使用:运行上面的代码会得到一个随机的proxies,把它直接传入requests的get方法中即可。

web_data = requests.get(url, headers=headers, proxies=proxies)


这个就是小编带来的分享了,程序员大牛可以试试效果哦。


转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 爬虫用自建代理效果怎么样

爬虫是抓取数据的主要途径,现在很多企业都需要。但由于反爬虫的限制,想让爬虫顺利进行就要用代理IP,那么,爬虫用自建代理效果怎么样?自建服务器来获取代理IP的方法很好,稳定性也很强,但是需要大量的服务器。但是在正常情况下,爬虫用户并没有技术能力去维护服务器,这是因为对技术要求和成本都很高。作为用户来说,没有资源,也没有技术,所以并不推荐爬虫用户自建代理。现在有很多可以提供代理IP的商家,提供的IP质量都不错,并且稳定性也不错,所以建议爬虫用户试试付费的代理IP。如果没有目标,可以尝试智游代理,可以提供IP资源,还可以根据用户的需求来制定套餐,用来爬虫稳定又高效。... [阅读全文]

2 使用代理IP做爬虫的正确姿势

  没有被封过IP的爬虫工程师,肯定不是一个好的工程师。在爬虫工作的过程中,总是会遇到封IP的烦心事,今天这样爬,被封,明天那样爬,还是被封,到底要怎样爬呢,才不会被封。  很多人认为之所以被封IP,是因为爬取的太快了,确实是这样。那好吧,我就放慢速度,依然被封,再放慢速度,再被封,再再放慢速度,终于不被封了,但这速度和蜗牛没什么差别了,爬虫失去了它存在的意义。  很多人想到了使用代理IP来做爬虫,提升速度爬,被封,再换一个IP,再被封,再再换,再再被封,进入了“封了一个IP,还有千千万万IP”模式,工作效率终于提高了。  但这种方法也有一个致命的问题,上哪找这么多高效稳定的代理IP?  有人很快行动,写了个爬虫爬取网上的代理IP,然后筛选验证,最后封装在IP池里。结果发现,这种方法效率太低,IP质量太低,当然花费的成本也最低,只不过时间成本最高。  也有人迟疑,在网上经过各种筛选,找到了收费的代理IP,购买了一批。结果发现,这种方法一般般,勉强可以正常工作,但还达不到自己的预期,不是理想中的完美解决方案。  终于,有人找到了智游代理IP平台上的... [阅读全文]

热门标签

推荐阅读

  1. 01

    2019-07

    代理IP对爬虫的重要性以及IP池的优质特性

    大数据时代,网络数据非常多,我们即使要做个小小的数据分析,也是需要抓取非常多的网页数据来分析结果,这单靠人工获取数据是不现实的,因此大家都是使用各种采集器或者直接使用爬虫

  2. 12

    2019-02

    爬虫的专用代理IP怎么选择

    ​随着大数据时代的到来,爬虫已经成了获取数据的必不可少的方式,做过爬虫的想必都深有体会,爬取的时候莫名其妙 IP 就被网站封掉了,毕竟各大网站也不想自己的数据被轻易地爬走。

  3. 29

    2018-11

    网络代理程序有什么优点?

    简单的说,代理服务所起的是一个桥的作用,它是网络信息的中转站。在网络中应用代理服务一般是基于以下几个优点:

  4. 08

    2020-01

    爬虫过程中的代理ip使用

    目前很多网站都会设置相对应的防爬虫机制,这是因为有一部分人在实际的爬虫主权过程中会进行恶意采集或者恶意攻击,通常情况下,防爬虫程序是通过IP来识别哪一些是机器人用户,因此可

  5. 10

    2018-11

    微信电脑版怎么使用网络代理上网?

    微信如今已经是人人都离不开的社交渠道了,不但手机上必装,很多人的电脑上也得来一个,办公啥的会方便很多。

  6. 09

    2018-11

    为什么需要爬虫代理IP?

    随着人类的生活发展越来越快,互联网信息的交流也会越来越频繁,对于代理IP的要求也会越来越高。