换ip软件,代理ip软件,更改ip地址-智游代理
首页 IP软件套餐 HTTP代理套餐 API提取 使用帮助 新闻资讯 长效IP 注册 登录 实名验证

在线咨询

800819380 售前客服
在线客服,实时响应

客户经理:
13326404693

473197630 QQ群
473197630

微信客服

您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

Java爬虫之匿名代理IP的获取

发布时间:2019年01月24日 来源:智游代理 www.zhiyoudaili.com

爬虫,AI一直是近年来为之关注的焦点,Java以自己独有的严格的语言约束和庞大且成熟的各种框架,成为企业一度的选择,也成为当今码农必知必会的编程语言。


诚然,Java仍然更多地用在WEB开发上,所以学会初级Java爬虫,也是在Java的技能道路上,多看了一处别样的风景。


环境准备:


1. 一个开发工具

2. MAVEN包管理环境

3. JAR:Jsoup、HTTPClient

4. 目标站点:某个代理网站


步骤:


一、 创建WeChat类,并添加JAR包,如下图:

image.png


二、编辑WeChat类,定义一个用于发起HTTP请求的然后返回HTML文本页面的方法:


private String getHTML(String url) {

        CloseableHttpClient httpClient = HttpClients.createDefault();

        HttpGet httpGet = new HttpGet(url);

        httpGet.setHeader("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.170 Safari/537.36");

        CloseableHttpResponse response;

        try {

            response = httpClient.execute(httpGet);

            HttpEntity responseEntity = response.getEntity();

            return EntityUtils.toString(responseEntity, "utf-8");

        } catch (IOException e) {

            e.printStackTrace();

        }

        return "";}


1、如上图所示,使用HTTPClient创建Http发起者,使用HttpGet,创建GET请求的对象,封装该对象,并使用HTTPClient将其发送到目标站点,获得返回值类型为HTTPResponse,对该响应使用EntityUtils工具统一格式化编码后,将其返回。

PS:被EntityUtils工具处理后,该响应不再为HTTPResponse对象,而是进行了编码后的该Response对象的文本。类型为String。


三、对第二步中的方法进行测试,确保其正确无误,测试及结果如下:

image.png


四、承接第二步,我们继续编写用于解析HTML文本的方法,在第二步中我们使用HttPClient发起了GET请求,这里,我们要使用Jsoup解析HTML文本,通过对根节点和子节点的解析,准确获取目标信息,代码如下:

private void doParser(String html) {

        Document document = Jsoup.parse(html);

        Elements elements = document.select("tr.odd");

        for (Element element : elements) {

            String context = element.getAllElements().select("td").text();

            if (context.contains("高匿")) {

                int index_ip = context.indexOf(" ");

                String ip_text = context.substring(0, index_ip);

                String sub_string = context.substring(index_ip, context.length());

                sub_string = sub_string.trim();

                int index_port = sub_string.indexOf(" ");

                String port_text = sub_string.substring(0, index_port);

                System.out.println(ip_text + ":" + port_text);

            }

        }}

如上所示:定义了名为doParser()的无返回值方法,以String类型的形参HTML为目标,使用Jsoup.parser()方法,将其转化为Document对象,使用select() CSS选择器,查找该HTML中所有的class为“odd”的标签(在该网页中:class为“odd”的标签和没有class的标签是一半一半所以这里只是选择了当前网页的一半的IP,但这拿来使用足矣)。


Select()选择器查找到class为odd的tr标签后,返回Elements对象,使用for each循环遍历得到该Elements中的所有单个element,使用if过滤掉非高匿的IP,从此处开始,正式进入本文的核心环节,也是爬虫的难点所在信息提取!

信息提取详解:

在if条件句中,首先打印出过滤了非高匿IP后的信息,如图:

image.png


诚然,没有价值的信息很多,我们需要做文本清洗,剥离出有价值的IP和端口必要信息,将其他繁杂信息舍去。


一、IP提取

分析单行文本可知,若想提取出IP,该行首次出现的“ ”(空格)符号是分割的重点,此处我们使用indexOf()方法,获得第一次出现的“ ”(空格)符号的下标所在,再根据下标,使用substring()方法,将其剥离出来,如图:

image.png


这样我们就拿到了IP地址;


一、 端口号的获取


原本的思路是在API文档中找到一个可以查找当前字符串中某一字符第二次出现的位置并返回下标,然而并没有找到,不是返回最后一次的就是返回第一次的,我百思不得解,一个final的String类竟然不会有这样的方法?为何?这说明该类下的所有已发布方法足矣处理任何String的问题,所以,我开始尝试用不相干的方法,制造合理的利用条件,思路如下:

image.png


首先我们来看,在第一步剥离了IP地址后,如果想再次使用IndexOf()方法这样去返回第一个“ ”(空格)字符的下标,然后再根据获得的下标切割去得到关键信息的话,显然IP地址是不应该再存在的,因为在IP地址和port之间已经有一个 “ ”(空格)字符了。所以解决办法第一步,调用substring()方法,使获得的第一个“ ”(空格)字符的下标作为切割的起始下标,字符串的长度为末尾下标,这样我们就得到了一个新的字符串,如下:

image.png

     

但是这仍然不是最适合的剥离环境,因为根据“ ”(空格)字符的下标作为判断依据的话,那么我们还要除去首位的空格(不难发现,每一个端口之前是有一个空格的,仔细看图),调用String.trim()方法,除去字符串首位的空格,得到全新的完美字符串,这时再使用提取IP时的方法就可以得到关于IP和Port的信息,如图:

image.png


今天的分享就到这里,希望对大家有所帮助。

转载注明来自:智游代理IP http://www.zhiyoudaili.com/

相关文章内容简介

1 爬虫使用不同的IP代理为什么效果不一样

我们爬虫在选择IP代理的时候,会发现有特别多的不同的IP提供商,价格差异也很大,从几块钱一天不限量的到几千块钱一天的都有,而且都说自己IP质量很好,都是高匿IP,但是实际使用起来,却发现IP可用率、连通速度都大相径庭,IP代理质量相同怎么效果不同?有些用户反映,在使用IP代理的过程中有时候会遇到这样的情况,即使用同样质量的一批不同的IP代理加上相同的策略访问同一个网站,有的成功有的失败,这是为什么呢?当下很多IP代理池,如果没有特殊注明为独享IP池,都是共享IP池。免费IP代理是最大的共享IP池,面向整个网络用户共享,收费IP代理则是面向自家的付费用户(超低价的普通代理和开放代理等除外,它们本质上还是网上收集的免费IP代理)。既然是共享IP代理池,那么不可避免的就会有冲突发生,会有部分用户使用相同的部分IP访问相同的网站。所以,在使用IP代理访问网站的过程中,会发现有一小部分才刚开始使用,就被反爬策略识别了。那么有什么好的解决办法呢?一是选择购买IP池大的共享IP池,IP池越大,项目冲突的几率就越小;比如智游代理的独享IP池,避免一个IP同时多个... [阅读全文]

2 Python爬虫通过ip代理抓取网页

如果大家在采集网站信息的时候,特别频繁的来访问,非常容易被目标网站检测到从而进行屏蔽,解决这类情况的一种有效的方法就是使用代理IP,当我们连上网络上网的时候,电脑会被分配一个IP,提供给我们使用,如果我们频繁访问一个网站时,这个网站也会因为发现同一个ip地址访问多次而进行屏蔽的,这个时候更换IP地址访问是最好的解决方式,多个ip地址进行随机地轮流访问,减少被该网站检测到的概率。假如我们再使用多个不同的headers请求头,这样就会有多个ip+主机的组合,浏览时被发现的机率又更加降低了。关于代码中ip代理的使用,下面介绍一下:步骤:1、urllib2库中的ProxyHandler类,通过此类可以使用ip代理访问网页proxy_support=urllib2.ProxyHandler({}),其中参数是一个字典{‘类型':'代理ip:端口号'}2、定制、创建一个openeropener=urllib2.build_opener(proxy_support)3、(1)安装openerurlib2.install_opener(o... [阅读全文]

热门标签

推荐阅读

  1. 14

    2018-11

    有关IP和网络代理的几个概念介绍

    今天小编给大家分享一点干货,就关于服务端获取 IP 以及客户端 IP 代理的几个概念简单介绍下。

  2. 09

    2018-11

    为何有那么多网络代理ip资源?

    很多网络代理ip资源初衷都是差不多,就是为了方便大众人群的使用,另外这种功能还能保护人们的隐私,很多需求人群在了解到这匹黑马之后都毅然决然地选择了这个平台

  3. 13

    2019-08

    代理工程师告诉你分布式爬虫有什么优点

    爬虫抓取数据大家已经都不陌生,随着技术的发展及抓取数据量的增大,分布式爬虫走进了我们的工作。分布式爬虫就是可以让一个爬虫程序发到多台电脑上。分布式爬虫主要的优点就是提高工

  4. 19

    2019-11

    代理IP对爬虫的重要性以及IP池的优质特性

    大数据时代,网络数据非常多,我们即使要做个小小的数据分析,也是需要抓取非常多的网页数据来分析结果,这单靠人工获取数据是不现实的,因此大家都是使用各种采集器或者直接使用爬虫

  5. 16

    2019-09

    解决多个爬虫代理IP的方案

    网络数据量越来越大,从网页中获取信息变得越来越困难,如何有效地抓取并利用信息,已成为网络爬虫一个巨大的挑战。网络中出售代理IP资源的渠道很多,总体来讲,质量好的都不便宜,便

  6. 21

    2018-11

    https代理ip保护网络安全

    互联网急速发展的今天,网络安全急需得到人们重视,因此衍生的https代理ip变得必不可少了。使用代理ip可以保护自己的本地ip,防止被黑被入侵,来保障个人信息以及财产的安全