换ip软件,代理ip软件,更改ip地址-智游代理
您的位置: 首页 > 新闻资讯 > 爬虫代理 > 正文

JAVA如何使用代理IP来进行爬虫采集

发布时间:2019年02月25日 来源:本站

如果说爬虫的出现是为了爬取网页信息,收集数据的,那么代理IP的出现就是为了爬虫保驾护航的,爬虫大家都知道,我们总在一个网站爬取的时候,网站的反爬虫机制可能会对我们的IP进行限制,这个数据采集无法继续进行,代理IP的使用就是在这个时候为爬虫穿上一个防护衣,防止IP被限制。

JAVA如何使用代理IP来进行爬虫采集

那么下面就为大家讲一下JAVA中是怎么使用代理IP来爬虫的,内容很简单,这里我分享了两种不同的方法,以供大家选择。


Java语言有两种方式使用代理IP访问网址并获取内容,


方式一,设置System系统属性


Java代码 收藏代码


// 设置代理IP


System.getProperties().setProperty("proxySet", "true");


System.getProperties().setProperty("http.proxyHost", "218.26.204.66");


System.getProperties().setProperty("http.proxyPort", "8080");


HttpUrlConnection connection=(HttpUrlConnection)new URL("http://www.baidu.com/").openConnection();


connection.setConnectTimeout(6000); // 6s


connection.setReadTimeout(6000);


connection.setUseCaches(false);


if(connection.getResponseCode==200){


System.out.println("使用代理IP连接网络成功");


}


方式二,使用java.net.Proxy类


Java代码 收藏代码


// 使用java.net.Proxy类设置代理IP


Proxy proxy=new Proxy(Proxy.Type.HTTP, new InetSocketAddress("123.22.43.3", 8080); HttpUrlConnection connection=(HttpUrlConnection)new URL("http://www.baidu.com/").openConnection(proxy);


connection.setConnectTimeout(6000); // 6s


connection.setReadTimeout(6000);


connection.setUseCaches(false);


if(connection.getResponseCode==200){


System.out.println("使用代理IP连接网络成功");


}


按字母排序文章

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

相关文章内容简介

1 解决多个爬虫代理IP的方案

网络数据量越来越大,从网页中获取信息变得越来越困难,如何有效地抓取并利用信息,已成为网络爬虫一个巨大的挑战。网络中出售代理IP资源的渠道很多,总体来讲,质量好的都不便宜,便宜的质量都比较渣,一分钱一分货吧。下面列举解决多个爬虫代理IP的方案。  1、通过程序扫描出来的代理IP。可以在百度搜索“HTTP代理”,能找到很多免费或者价格低廉的IP供应商,这些不同平台的IP,至少存在三成以上的重复率,而且有效期不长,经常会遇见刚连上就失效的情况。这类IP适合低效率采集的爬虫,如果追求效率还是算了吧。  2、通过重连ADSL拨号服务器获取IP。相对稳定,至少比扫描出来的强得多,但是这种方法需要人为断开重连ADSL拨号服务器,费时费力,效率也非常慢。  3、自建代理IP池。适合财大气粗的爬虫工程师,一口气买个几十几百台服务器,可以获得大量高质量独享真实IP,相当稳定。真是有钱能使鬼推磨。  4、使用付费代理IP。对于大多数爬虫工程师,这个方法是最实用的,可以用最低的成本获取最多的... [阅读全文]

2 爬虫使用代理ip为什么还会被封

很多网络爬虫用户使用了代理ip,为了就是防止抓取数据和采集数据防止ip被封,最近很多做网络爬虫的朋友反映,问什么我是使用了代理ip还是会被封,在正常的进行爬取数据时,突然停了,但是工作必行要进行,为什么会这样:智游代理今天跟大家讲讲为什么使用代理ip还是会被封:爬虫采集是需要使用大量的ip对目标网站进行访问采集,通常我们使用原始的爬虫方法ip就会很有可能ip会被禁止访问网页,所以使用动态代理ip来躲避对方的识别系统和软件,从而完成大量的采集数据的工作,使用代理ip为何还会被封或者限制?1.免费ip:使用了免费劣质的代理ip做爬虫,有一些爬虫工作者为了解决成本,在一些网站上爬取一些免费的代理ip,大家都知道免费的代理ip质量非常差,安全性差,ip速度慢,被荣誉万人骑之称号。所以用户在爬取采集数据进行中被禁止或限制是在正常不过的。2.普通代理ip:购买便宜一些低成本的代理ip做爬虫,大家都一分钱一分货,普通代理ip便宜,成本就低,那么ip的质量就没有保障,大量的ip已经被成千上万人用过,使用性,稳定性以及安全性都非常差,成本确实降低了很多,但是工作效... [阅读全文]

热门标签

推荐阅读

  1. 16

    2018-11

    访问网络受限用http代理ip

    互联网行业发展,我国的网民数量也是在不断增加,年老的有,年少的也有,在网络上遨游,丰富自己的精神世界。

  2. 05

    2018-11

    网络代理、DHCP和静态是什么意思?

    DHCP代表动态主机控制协议,它的主要功能是为客户端自动分配IP地址。与此相反的是静态,这意味着您手动分配IP地址并且它们不会更改。

  3. 13

    2019-08

    代理工程师告诉你分布式爬虫有什么优点

    爬虫抓取数据大家已经都不陌生,随着技术的发展及抓取数据量的增大,分布式爬虫走进了我们的工作。分布式爬虫就是可以让一个爬虫程序发到多台电脑上。分布式爬虫主要的优点就是提高工

  4. 10

    2019-07

    为什么爬虫需要代理IP?

    在爬虫的过程中,我们经常会遇见很多网站采取了防爬取技术,或者说因为自己采集网站信息的强度和采集速度太大,给对方服务器带去了太多的压力,所以你一直用同一个代理IP爬取这个网页

  5. 07

    2019-03

    爬虫使用HTTP代理IP做什么?

    ​你对HTTP代理IP这个字眼陌生吗?实际上这个字眼离你并不遥远。HTTP代理IP是将用户的IP进行更换,帮助用户在网上做一些事情。

  6. 23

    2018-11

    代理服务器助你匿名访问网络

    ​除非你是一个非常有才华的黑客,否则在互联网上就没有匿名性。关于匿名的一个常见误解是,它们允许您在没有任何人能够追踪到您的情况下上网并做任何您想做的事情。