换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800819380 售前客服
在线客服,实时响应

客户经理:
13326404693

473197630 QQ群
473197630

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

python如何设置代理ip

发布时间:2018年11月12日 来源:智游代理 www.zhiyoudaili.com

作为爬虫工作者来说,代理ip简直是太重要了,没有这个的话,爬虫工作将会变得非常的艰难,这点相信从事爬虫方面的朋友都是深有体会的,在使用爬虫的时候,经常会遇见所要爬取的网站采取了反爬取技术,高强度,高效率的爬取网页信息常常会给网站服务器带来巨大压力,所以同一个IP反复爬取同一个网页,就很可能被封,那么怎么解决呢?小编给大家提供一个方法,就是xpython怎么设置代理IP,请看下面步骤。


首先来看一下配置环境:安装requests库;安装bs4库;安装lxml库。

  接下来直接进入代码展示:

  from bs4 import BeautifulSoup

  import requests

  import random

  def get_ip_list(url, headers):

  web_data = requests.get(url, headers=headers)

  soup = BeautifulSoup(web_data.text, 'lxml')

  ips = soup.find_all('tr')

  ip_list = []

  for i in range(1, len(ips)):

  ip_info = ips[i]

  tds = ip_info.find_all('td')

  ip_list.append(tds[1].text + ':' + tds[2].text)

  return ip_list

  def get_random_ip(ip_list):

  proxy_list = []

  for ip in ip_list:

  proxy_list.append('http://' + ip)

  proxy_ip = random.choice(proxy_list)

  proxies = {'http': proxy_ip}

  return proxies

  if __name__ == '__main__':

  url = 'http://www.xicidaili.com/nn/'

  headers = {

  'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36'

  }

  ip_list = get_ip_list(url, headers=headers)

  proxies = get_random_ip(ip_list)

  print(proxies)

代理IP的使用:运行上面的代码会得到一个随机的proxies,把它直接传入requests的get方法中即可。

web_data = requests.get(url, headers=headers, proxies=proxies)


这就是小编带来的内容了,有程序员大牛可以试试效果哦。

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 通用的爬虫系统有哪些类型?

通用的爬虫系统有哪些类型?爬虫技术就是一个高效的下载系统,能够将海量的网页数据传送到本地,在本地形成互联网网页的镜像备份。根据具体应用的不同,爬虫系统虽然在许多细节方面存在差异,但大体可以将爬虫系统分为如下3种类型:一、批量型爬虫:批量型爬虫有比较明确的抓取范围和目标,当爬虫达到这个设定的目标后,即停止抓取过程。至于具体目标可能各异,也许是设定抓取一定数量的网页即可,也许是设定抓取的时间等,各不一样;二、增量型爬虫:增量型爬虫与批量型爬虫不同,会保持持续不断地抓取,对于抓取到的网页,要定期更新。因为互联网网页处于不断变化中,新增网页、网页被删除或者网页内容更改都很常见,而增量型爬虫需要及时反映这种变化,所以处于持续不断的抓取过程中,不是在抓取新网页,就是在更新已有网页。通用的商业搜索引擎爬虫基本都属此类;三、垂直型爬虫:垂直型爬虫关注特定主题内容或者属于特定行业的网页,比如对于养生网站来说,只需要从互联网页面里找到与养生相关的页面内容即可,其他行业的内容不在考虑范围。垂直型爬虫一个最大的特点和难点就是:如何识别网页内容是否属于指定行业或主题。从节... [阅读全文]

2 网络爬虫伪装有哪些方式?

爬虫和反爬虫一直相爱相杀着:没有爬虫,反爬虫毫无存在的意义;有了反爬虫,爬虫的日子也别想好过。爬虫每天都在想怎么甩了反爬虫,反爬虫则是每天都在想怎么黏住爬虫,它们不断地在对抗中,不断地在提升自己,谁落后谁就要输。爬虫在此期间为了甩开反爬虫自创了一招技能——伪装术,这技能又分为三招,分别是:伪装UA、伪装IP和伪装真实用户。下面我们来将技能进行分解,希望对新手朋友们有所帮助。一、伪装UA。UA全称是User-Agent,叫做用户代理,不同的浏览器UA各有不同。反爬虫会根据UA来判断某个IP是否爬虫,所以需要进行伪装。网上有很多UA,搜集起来写在自己的配置里,在添加UA的时候随机选一个,这样毫无规律地设置UA,会让反爬虫傻眼;二、伪装IP。很多时候反爬虫都是根据单IP的行为来判断是否爬虫,比如某IP访问频率太快,访问次数太多了……反爬虫就会限制IP再次访问。解决方法也很简单,找代理IP服务商购买高效稳定的代理IP,比如智游代理的动态高质量代理;三、伪装真实用户。这个伪装技术就比较厉害了,反爬虫不可能杀死真实用户,不然网站就没什么意义了。那么如何伪装真... [阅读全文]

热门标签

推荐阅读

  1. 24

    2020-03

    为什么用了代理IP做爬虫还是被识别?

    “封IP是不可能封IP的,这辈子都不可能封IP的,左手高匿代理IP​,右手优质爬虫程序,没有什么能够阻挡,我对高效工作的向往”,一个爬虫工作者如此骄傲的说。然而,理想很丰满,现实很

  2. 15

    2018-11

    Python语言需要代理ip

    网络科技发达的今天,很多语言随之诞生,如Java、.net、php等等,但是作为现在最热门的网络爬虫语言,Python在编程语言中的地位也是无可取代的。

  3. 29

    2019-05

    软营销中爬虫代理ip能起到什么作用

    软营销中爬虫代理ip能起到什么作用?对于很多个人经营的微商来说,他们通常会通过在贴吧发帖的方式来运营自己的软营销。但即使是偶尔使用过贴吧的用户都知道,百度对于发帖的要求是非

  4. 12

    2019-06

    用代理IP爬虫遇到问题怎么办

    爬虫在抓取数据的时候都知道需要使用代理IP,不然是无法顺利进行的。用户在使用了代理IP爬虫,还会出现一些问题,导致爬虫无法继续。那么,用代理IP爬虫遇到问题怎么办呢?1.分布式爬虫

  5. 05

    2018-12

    代理IP广泛应用于爬虫领域了吗?

    ​大家都知道,互联网时代,从事爬虫工作的朋友非常多,在网络爬虫抓取信息的过程中,如果抓取频率高过了网站的设置阀值,将会被禁止访问。

  6. 31

    2019-01

    为什么你的Python爬虫总是不行?

    为何称之为大数据时代,由于互联网和移动网的迅猛发展,各种各样数据信息存在在互联网世界中,由网络爬虫采集整理,以方便日后用户查看。