换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800819380 售前客服
在线客服,实时响应

客户经理:
13326404693

473197630 QQ群
473197630

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

网络爬虫基本原理以及抓取策略了解

发布时间:2019年02月14日 来源:智游代理 www.zhiyoudaili.com

网络爬虫是捜索引擎抓取系统的重要组成部分。爬虫的主要目的是将互联网上的网页下载到本地形成一个或联网内容的镜像备份。这篇博客主要对爬虫以及抓取系统进行一个简单的概述。


一、网络爬虫的基本结构及工作流程


一个通用的网络爬虫的框架如图所示:

网络爬虫的框架



网络爬虫的基本工作流程如下:


1.首先选取一部分精心挑选的种子URL;


2.将这些URL放入待抓取URL队列;


3.从待抓取URL队列中取出待抓取在URL,解析DNS,并且得到主机的ip,并将URL对应的网页下载下来,存储进已下载网页库中。此外,将这些URL放进已抓取URL队列。


4.分析已抓取URL队列中的URL,分析其中的其他URL,并且将URL放入待抓取URL队列,从而进入下一个循环。


二、从爬虫的角度对互联网进行划分


对应的,可以将互联网的所有页面分为五个部分:


image.png


1.已下载未过期网页


2.已下载已过期网页:抓取到的网页实际上是互联网内容的一个镜像与备份,互联网是动态变化的,一部分互联网上的内容已经发生了变化,这时,这部分抓取到的网页就已经过期了。


3.待下载网页:也就是待抓取URL队列中的那些页面


4.可知网页:还没有抓取下来,也没有在待抓取URL队列中,但是可以通过对已抓取页面或者待抓取URL对应页面进行分析获取到的URL,认为是可知网页。


5.还有一部分网页,爬虫是无法直接抓取下载的。称为不可知网页。


三、抓取策略


在爬虫系统中,待抓取URL队列是很重要的一部分。待抓取URL队列中的URL以什么样的顺序排列也是一个很重要的问题,因为这涉及到先抓取那个页面,后抓取哪个页面。而决定这些URL排列顺序的方法,叫做抓取策略。下面重点介绍几种常见的抓取策略:


1.深度优先遍历策略


深度优先遍历策略是指网络爬虫会从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接。我们以下面的图为例:


image.png


遍历的路径:A-F-GE-H-I B C D


2.宽度优先遍历策略


宽度优先遍历策略的基本思路是,将新下载网页中发现的链接直接插入待抓取URL队列的末尾。也就是指网络爬虫会先抓取起始网页中链接的所有网页,然后再选择其中的一个链接网页,继续抓取在此网页中链接的所有网页。还是以上面的图为例:


遍历路径:A-B-C-D-E-F G H I


3.反向链接数策略


反向链接数是指一个网页被其他网页链接指向的数量。反向链接数表示的是一个网页的内容受到其他人的推荐的程度。因此,很多时候搜索引擎的抓取系统会使用这个指标来评价网页的重要程度,从而决定不同网页的抓取先后顺序。


在真实的网络环境中,由于广告链接、作弊链接的存在,反向链接数不能完全等他我那个也的重要程度。因此,搜索引擎往往考虑一些可靠的反向链接数。


4.Partial PageRank策略


Partial PageRank算法借鉴了PageRank算法的思想:对于已经下载的网页,连同待抓取URL队列中的URL,形成网页集合,计算每个页面的 PageRank值,计算完之后,将待抓取URL队列中的URL按照PageRank值的大小排列,并按照该顺序抓取页面。


如果每次抓取一个页面,就重新计算PageRank值,一种折中方案是:每抓取K个页面后,重新计算一次PageRank值。但是这种情况还会有一个问 题:对于已经下载下来的页面中分析出的链接,也就是我们之前提到的未知网页那一部分,暂时是没有PageRank值的。为了解决这个问题,会给这些页面一 个临时的PageRank值:将这个网页所有入链传递进来的PageRank值进行汇总,这样就形成了该未知页面的PageRank值,从而参与排序。下 面举例说明:


5.OPIC策略策略


该算法实际上也是对页面进行一个重要性打分。在算法开始前,给所有页面一个相同的初始现金(cash)。当下载了某个页面P之后,将P的现金分摊给所有从P中分析出的链接,并且将P的现金清空。对于待抓取URL队列中的所有页面按照现金数进行排序。


6.大站优先策略


对于待抓取URL队列中的所有网页,根据所属的网站进行分类。对于待下载页面数多的网站,优先下载。这个策略也因此叫做大站优先策略。 

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 代理ip在爬虫与优化推广的运用

想来大多数人都比较了解代理ip,其通常被运用网站爬虫及其优化推广这两种场景设计。那接下来,随着小编一起来看看吧。在网络数据抓取这一层面运用ip代理爬虫,我们都需要了解什么?通常情况下我们都在爬虫工作上,或是某些平台网站的软网上都是看到关于爬虫中提到的高频率请求并发等字眼,请求便是新建的请求数,如果是每秒新建请求,便是每一秒能够新传出多少条HTTP请求。而高并发是指每秒的并非数,也是指每秒可同时运用的HTTP网页链接。如每秒新建10条请求,代理ip的存活有效时间是3分钟,也便是180秒。如果代理ip第一秒传出去10条新的请求,那同时也便是10个并发了,如果第二秒又增加了10条,那同时也会增加10条并非。如果第一秒的请求数没有关闭,那第二秒总共就有20条并发,以此计算,代理ip存活时长180秒有多少条并发,便是10条请求最高是支持10条并发,也便是10/秒*180/ip存活时间=1800条并发。那大家知道在通常情况下我们都会在什么样营销模式运用换ip软件吗?而对于运用代理ip能够做如下优化推广:1、网盟推广营销:有些类似于找个网络数据代销商,用手上有... [阅读全文]

2 怎么解决爬虫资源问题

在大数据的时间,爬虫业务大家都不再陌生。随着网络的发展,反爬虫也在不断的优化。想突破反爬虫的限制,好的代理IP资源是非常重要的。那么,怎么解决爬虫资源问题呢?解决爬虫资源问题,最常见的就是用代理IP,一个是免费的资源,一个是购买专业的代理IP。免费成本低,但不稳定,大部分代理IP根本都不能用的,质量很差。对于爬虫工作者来说,任务量大,分布式爬虫也是提高工作效率的好办法,所以就更需要专业代理IP的帮助了。智游代理拥有国内很多城市的IP资源,可以满足爬虫的需求,质量高是很好的选择。所以,解决爬虫资源问题,是离不开代理IP的帮助的。挑选代理的时候要注意,找到质量好的代理才是好帮手。... [阅读全文]

热门标签

推荐阅读

  1. 13

    2018-12

    Python爬虫如何使用代理IP

    一段自动抓取互联网信息的程序,从互联网上抓取对于我们有价值的信息,一般来说,Python爬虫程序很多时候都要使用代理的IP地址来爬取程序,

  2. 18

    2019-06

    爬虫如何避免封IP

    爬虫如何避免封IP?做爬虫,碰到最多的问题不是代码bug,而是封IP。开发好一个爬虫,部署好服务器,然后开始抓取信息,不一会儿,就提示封IP了,这时候的内心是崩溃的。那么,有什么办法

  3. 16

    2019-10

    为什么有些爬虫代理ip重复率很高?

    为什么有些爬虫代理ip重复率很高?做爬虫的久了,会接触到很多很多爬虫代理ip提供商家,也会发现不同提供商的http代理质量差别非常大,有些代理商的重复率非常高,导致爬虫被封,这是为

  4. 08

    2020-07

    爬虫IP被封了怎么解决

    在数据采集或者爬虫的工作中,我们不可避免的会遭遇反爬封锁,所以就会有爬虫的攻防,在攻和守之间两股力量不断的抗衡。接下来就讲讲在数据采集或爬虫时ip被限制的几种解决方案问题:

  5. 06

    2020-08

    用就用最好用的HTTP代理

    随着网络的迅速发展大家逐渐知道了IP代理这个名词,而对很多网络工作人员来说更是必不可少的工具,提高了工作效率。虽然IP代理有着很多优势,但是很多人还是对HTTP代理不是很了解,还保

  6. 09

    2019-09

    python爬虫需要了解的代理IP知识

    大家都说现在是大数据时代,是python爬虫的天下,但python爬虫也是有天敌的,随着网络爬虫的日渐壮大,反爬虫也在不断进化,若想顺应时代发展,更好的突破网站反爬虫机制,拥有一款好的代