换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800821111 售前客服
在线客服,实时响应

800821111 售前客服
在线客服,实时响应

大客户经理
2110220233

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

python如何设置代理ip

发布时间:2018年11月12日 来源:智游代理 www.zhiyoudaili.com

作为爬虫工作者来说,代理ip简直是太重要了,没有这个的话,爬虫工作将会变得非常的艰难,这点相信从事爬虫方面的朋友都是深有体会的,在使用爬虫的时候,经常会遇见所要爬取的网站采取了反爬取技术,高强度,高效率的爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,那么怎么解决呢?小编给大家提供一个方法,就是xpython怎么设置代理IP,请看下面步骤。


首先来看一下配置环境:安装requests库;安装bs4库;安装lxml库。

  接下来直接进入代码展示:

  from bs4 import BeautifulSoup

  import requests

  import random

  def get_ip_list(url, headers):

  web_data = requests.get(url, headers=headers)

  soup = BeautifulSoup(web_data.text, 'lxml')

  ips = soup.find_all('tr')

  ip_list = []

  for i in range(1, len(ips)):

  ip_info = ips[i]

  tds = ip_info.find_all('td')

  ip_list.append(tds[1].text + ':' + tds[2].text)

  return ip_list

  def get_random_ip(ip_list):

  proxy_list = []

  for ip in ip_list:

  proxy_list.append('http://' + ip)

  proxy_ip = random.choice(proxy_list)

  proxies = {'http': proxy_ip}

  return proxies

  if __name__ == '__main__':

  url = 'http://www.xicidaili.com/nn/'

  headers = {

  'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'

  }

  ip_list = get_ip_list(url, headers=headers)

  proxies = get_random_ip(ip_list)

  print(proxies)

代理IP的使用:运行上面的代码会得到一个随机的proxies,把它直接传入requests的get方法中即可。

web_data = requests.get(url, headers=headers, proxies=proxies)


这就是小编带来的内容了,有程序员大牛可以试试效果哦。

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 爬虫代理IP如何使用

用听说过爬虫的人应该都知道,抓的网站和数据多了,如果爬虫抓取速度过快,很多网站防爬机制总是会碰上的,几乎用的同一招就是封IP。解决方案有2个:1、同一IP,放慢速度(爬取速度慢)2、使用代理IP访问(推荐)第一种方案需要的就是时间和速度,来换取数据,但是一般情况下我们的时间是是有限的,理想情况下是用最短的时间获取最多的数据。所以第二种方案是推荐的,那么从哪里能找到这么多代理IP呢?寻找代理程序不懂的时候就去寻找,google、百度,输入关键字:免费代理IP,打开后观察发现,几乎都是一个列表页。但是仔细观察就会发现,每个网站提供的免费IP还是有限的,用了之后就会发现,有的已经没有用了,很多都是付费的。只需要用搜索引擎去找免费IP,每个网站提供几十或几百个,假如10家网站,那加在一起也有几百到几千个IP。可以记录下来这些网站,用程序把IP抓过来就好了,做起来还是有点麻烦的。测试代理通过刚才的方式,应该可以获得几百或上千的代理IP了。IP就是免费的吗?当然不是,这些代理中有很多事已经没有用了。如何判断哪些代理是有效,哪些是不可用的呢?挂上这些代理,再去... [阅读全文]

2 为什么有些爬虫代理ip重复率很高?

为什么有些爬虫代理ip重复率很高?做爬虫的久了,会接触到很多很多爬虫代理ip提供商家,也会发现不同提供商的http代理质量差别非常大,有些代理商的重复率非常高,导致爬虫被封,这是为什么呢?按理说通过机房出来的代理ip,应该质量是一样的,即使有差别也不会如此巨大,那是什么原因导致有些代理商提供的http代理重复率如此之高?那是因为有些http提供商的IP池太小,导致所有IP提取了一遍之后再进行提取会使用到很多重复的资源,从而导致IP被封,如果像智游代理这种一天有几百万的不重复IP的话,就能够很好地满足无论还爬虫用户还是刷量用户,能够很好地支撑用户业务的开展。智游代理提供多种套餐选择:静态线路:静态线路是IP固定,永远不会变更动态线路:动态线路是该条线路最后一个用户断线后则更换IP,目前全国200+城市服务器节点,每天产生几十万个IP独享线路:可连接独享在内的所有线路,可使用静态,动态,独享客户端,可连接动态PPTP|L2TP|SSTP直连。智游代理套餐年底优惠多多,需要购买请咨询智游代理在线客服。... [阅读全文]

热门标签

推荐阅读

  1. 09

    2018-11

    爬虫程序怎么加入动态代理

    相信很多人都用过代码写过不同的爬虫程序吧,来获取互联网上自己需要的信息,这比自己手动的去一个一个复制来的容易。

  2. 28

    2018-12

    爬虫代理ip的基本实现原理

    ​爬虫工作者在试用爬虫进行数据搜集的过程中经常会遇到这样的情况,刚开始的时候爬虫的运行情况是正常的,数据的抓取状况也在有条不紊的进行着,

  3. 29

    2019-05

    软营销中爬虫代理ip能起到什么作用

    软营销中爬虫代理ip能起到什么作用?对于很多个人经营的微商来说,他们通常会通过在贴吧发帖的方式来运营自己的软营销。但即使是偶尔使用过贴吧的用户都知道,百度对于发帖的要求是非

  4. 18

    2019-06

    爬虫如何避免封IP

    爬虫如何避免封IP?做爬虫,碰到最多的问题不是代码bug,而是封IP。开发好一个爬虫,部署好服务器,然后开始抓取信息,不一会儿,就提示封IP了,这时候的内心是崩溃的。那么,有什么办法

  5. 12

    2019-06

    企业爬虫如何选择合适的代理IP

    在互联网发展快速的今天,企业的发展已经离不开数据的支持。企业可以通过爬虫来进行数据收集进行分析,并制定最合适的营销方案。在数据收集的过程中,代理IP是必不可少的。那么,企业

  6. 08

    2018-11

    爬虫选择什么代理IP比较好

    大数据时代,爬虫工作者已经成为互联网数据公司的关键性职位,他们不但要精通数据抓取和分析,其次还要熟悉搜索引擎和相关检索算法,对内存、性能、分布式算法都要有一定的了解。