网络爬虫入门

素颜马尾好姑娘i 2023-10-07 18:14 151阅读 0赞

1. 网络爬虫

网络爬虫(Web crawler),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本

1.1. 爬虫入门程序

1.1.1. 环境准备

  • JDK1.8
  • IntelliJ IDEA
  • IDEA自带的Maven

1.1.2. 环境准备

创建Maven工程itcast-crawler-first并给pom.xml加入依赖

  1. <dependency>
  2. <groupId>junit</groupId>
  3. <artifactId>junit</artifactId>
  4. <version>4.12</version>
  5. <scope>test</scope>
  6. </dependency>
  7. <dependency>
  8. <groupId>org.apache.httpcomponents</groupId>
  9. <artifactId>httpclient</artifactId>
  10. <version>4.5.13</version>
  11. </dependency>
  12. <dependency>
  13. <groupId>org.slf4j</groupId>
  14. <artifactId>slf4j-log4j12</artifactId>
  15. <version>1.7.36</version>
  16. <scope>test</scope>
  17. </dependency>

1.1.3. 加入log4j.properties

  1. log4j.rootLogger=DEBUG,A1
  2. log4j.logger.cn.itcast = DEBUG
  3. log4j.appender.A1=org.apache.log4j.ConsoleAppender
  4. log4j.appender.A1.layout=org.apache.log4j.PatternLayout
  5. log4j.appender.A1.layout.ConversionPattern=%-d{yyyy-MM-dd HH:mm:ss,SSS} [%t] [%c]-[%p] %m%n

1.1.4. 编写代码

编写最简单的爬虫,抓取我的csdn博客首页:https://terence.blog.csdn.net

  1. /**
  2. * 入门测试
  3. * @throws IOException
  4. */
  5. @Test
  6. public void test1() throws IOException {
  7. //1. 打开浏览器,创建HttpClient对象
  8. CloseableHttpClient httpClient = HttpClients.createDefault();
  9. //2. 输入网址,发起get请求创建HttpGet对象
  10. HttpGet httpGet = new HttpGet("https://terence.blog.csdn.net");
  11. //3. 按回车发起请求,返回响应
  12. CloseableHttpResponse response = httpClient.execute(httpGet);
  13. //4. 解析响应,
  14. //判断状态码是否是200
  15. if(response.getStatusLine().getStatusCode()==200){
  16. HttpEntity httpEntity = response.getEntity();
  17. String content = EntityUtils.toString(httpEntity, "utf8");
  18. System.out.println(content);
  19. }
  20. }

测试结果:可以获取到页面数据

2. 网络爬虫

2.1. 网络爬虫介绍

在大数据时代,信息的采集是一项重要的工作,而互联网中的数据是海量的,如果单纯靠人力进行信息采集,不仅低效繁琐,搜集的成本也会提高。如何自动高效地获取互联网中我们感兴趣的信息并为我们所用是一个重要的问题,而爬虫技术就是为了解决这些问题而生的。

网络爬虫(Web crawler)也叫做网络机器人,可以代替人们自动地在互联网中进行数据信息的采集与整理。它是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本,可以自动采集所有其能够访问到的页面内容,以获取相关数据。

从功能上来讲,爬虫一般分为数据采集,处理,储存三个部分。爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。

2.2. 为什么学网络爬虫

我们初步认识了网络爬虫,但是为什么要学习网络爬虫呢?只有清晰地知道我们的学习目的,才能够更好地学习这一项知识。在此,总结了4种常见的学习爬虫的原因:

  • 可以实现搜索引擎
    我们学会了爬虫编写之后,就可以利用爬虫自动地采集互联网中的信息,采集回来后进行相应的存储或处理,在需要检索某些信息的时候,只需在采集回来的信息中进行检索,即实现了私人的搜索引擎。
  • 大数据时代,可以让我们获取更多的数据源。
    在进行大数据分析或者进行数据挖掘的时候,需要有数据源进行分析。我们可以从某些提供数据统计的网站获得,也可以从某些文献或内部资料中获得,但是这些获得数据的方式,有时很难满足我们对数据的需求,而手动从互联网中去寻找这些数据,则耗费的精力过大。此时就可以利用爬虫技术,自动地从互联网中获取我们感兴趣的数据内容,并将这些数据内容爬取回来,作为我们的数据源,再进行更深层次的数据分析,并获得更多有价值的信息。
  • 可以更好地进行搜索引擎优化(SEO)。
    对于很多SEO从业者来说,为了更好的完成工作,那么就必须要对搜索引擎的工作原理非常清楚,同时也需要掌握搜索引擎爬虫的工作原理。
    而学习爬虫,可以更深层次地理解搜索引擎爬虫的工作原理,这样在进行搜索引擎优化时,才能知己知彼,百战不殆。
  • 有利于就业。
    从就业来说,爬虫工程师方向是不错的选择之一,因为目前爬虫工程师的需求越来越大,而能够胜任这方面岗位的人员较少,所以属于一个比较紧缺的职业方向,并且随着大数据时代和人工智能的来临,爬虫技术的应用将越来越广泛,在未来会拥有很好的发展空间。

3. HttpClient

网络爬虫就是用程序帮助我们访问网络上的资源,我们一直以来都是使用HTTP协议访问互联网的网页,网络爬虫需要编写程序,在这里使用同样的HTTP协议访问网页。

这里我们使用Java的HTTP协议客户端 HttpClient这个技术,来实现抓取网页数据。

3.1. GET请求

访问我的csdn博客首页,请求url地址:https://terence.blog.csdn.net

  1. /**
  2. * Get请求
  3. *
  4. * @throws IOException
  5. */
  6. @Test
  7. public void test2() throws IOException {
  8. //创建HttpClient对象
  9. CloseableHttpClient httpClient = HttpClients.createDefault();
  10. //创建HttpGet对象,设置url访问地址
  11. HttpGet httpGet = new HttpGet("https://terence.blog.csdn.net");
  12. CloseableHttpResponse response = null;
  13. try {
  14. //使用HttpClient发起请求,获取response
  15. response = httpClient.execute(httpGet);
  16. //解析响应,
  17. if (response.getStatusLine().getStatusCode() == 200) {
  18. HttpEntity httpEntity = response.getEntity();
  19. String content = EntityUtils.toString(httpEntity, "utf8");
  20. System.out.println(content);
  21. System.out.println(content.length());
  22. }
  23. } catch (Exception e) {
  24. e.printStackTrace();
  25. } finally {
  26. //释放连接
  27. if (response != null) {
  28. response.close();
  29. }
  30. if(httpClient!=null){
  31. httpClient.close();
  32. }
  33. }
  34. }

请求结果

watermark_type_d3F5LXplbmhlaQ_shadow_50_text_Q1NETiBAVGVyZW5jZUtpbmc_size_12_color_FFFFFF_t_70_g_se_x_16

3.2. 带参数的GET请求

访问csdn获取文章链接的接口,请求url地址:

https://blog.csdn.net/community/home-api/v1/get-business-list?page=1&size=100&businessType=blog&username=qq_39997939

  1. /**
  2. * 带参数到Get请求
  3. *
  4. * @throws IOException
  5. * @throws URISyntaxException
  6. */
  7. @Test
  8. public void test3() throws IOException, URISyntaxException {
  9. //创建HttpClient对象
  10. CloseableHttpClient httpClient = HttpClients.createDefault();
  11. //设置请求地址是:https://blog.csdn.net/community/home-api/v1/get-business-list?page=1&size=100&businessType=blog&username=qq_39997939
  12. //创建URIBuilder
  13. URIBuilder uriBuilder = new URIBuilder("https://blog.csdn.net/community/home-api/v1/get-business-list");
  14. uriBuilder.setParameter("page", "1");
  15. uriBuilder.setParameter("size", "100");
  16. uriBuilder.setParameter("businessType", "blog");
  17. uriBuilder.setParameter("username", "qq_39997939");
  18. //创建HttpGet对象,设置url访问地址
  19. HttpGet httpGet = new HttpGet(uriBuilder.build());
  20. System.out.println("发起请求的信息:" + httpGet);
  21. CloseableHttpResponse response = null;
  22. try {
  23. //使用HttpClient发起请求,获取response
  24. response = httpClient.execute(httpGet);
  25. //解析响应,
  26. if (response.getStatusLine().getStatusCode() == 200) {
  27. HttpEntity httpEntity = response.getEntity();
  28. String content = EntityUtils.toString(httpEntity, "utf8");
  29. System.out.println(content);
  30. System.out.println(content.length());
  31. }
  32. } catch (Exception e) {
  33. e.printStackTrace();
  34. } finally {
  35. //释放连接
  36. if (response != null) {
  37. response.close();
  38. }
  39. if(httpClient!=null){
  40. httpClient.close();
  41. }
  42. }
  43. }

请求结果

watermark_type_d3F5LXplbmhlaQ_shadow_50_text_Q1NETiBAVGVyZW5jZUtpbmc_size_20_color_FFFFFF_t_70_g_se_x_16

3.3. POST请求

使用POST访问传智官网,请求url地址:

http://www.itcast.cn/

  1. /**
  2. * post请求测试
  3. *
  4. * @throws IOException
  5. */
  6. @Test
  7. public void test4() throws IOException {
  8. //创建HttpClient对象
  9. CloseableHttpClient httpClient = HttpClients.createDefault();
  10. //创建HttpGet对象,设置url访问地址
  11. HttpPost httpGet = new HttpPost("https://blog.csdn.net/community/home-api/v1/get-business-list");
  12. CloseableHttpResponse response = null;
  13. try {
  14. //使用HttpClient发起请求,获取response
  15. response = httpClient.execute(httpGet);
  16. //解析响应,
  17. if (response.getStatusLine().getStatusCode() == 200) {
  18. HttpEntity httpEntity = response.getEntity();
  19. String content = EntityUtils.toString(httpEntity, "utf8");
  20. System.out.println(content);
  21. System.out.println(content.length());
  22. }
  23. } catch (Exception e) {
  24. e.printStackTrace();
  25. } finally {
  26. //释放连接
  27. if (response != null) {
  28. response.close();
  29. }
  30. if(httpClient!=null){
  31. httpClient.close();
  32. }
  33. }
  34. }

请求结果:

watermark_type_d3F5LXplbmhlaQ_shadow_50_text_Q1NETiBAVGVyZW5jZUtpbmc_size_17_color_FFFFFF_t_70_g_se_x_16

3.4. 带参数的POST请求

在传智中搜索学习视频,使用POST请求,url地址为:

http://yun.itheima.com/search

url地址没有参数,参数keys=java放到表单中进行提交

  1. /**
  2. * 带参数到post请求
  3. *
  4. * @throws IOException
  5. */
  6. @Test
  7. public void test5() throws IOException {
  8. //创建HttpClient对象
  9. CloseableHttpClient httpClient = HttpClients.createDefault();
  10. //创建HttpGet对象,设置url访问地址
  11. HttpPost httpPost = new HttpPost("http://yun.itheima.com/search");
  12. //声明List集合,封装表单中的参数
  13. List<NameValuePair> params = new ArrayList<NameValuePair>();
  14. params.add(new BasicNameValuePair("keys", "java"));
  15. //创建表单的Entity对象,第一个参数就是封装好的表单数据,第二个参数就是编码
  16. UrlEncodedFormEntity formEntity = new UrlEncodedFormEntity(params, "utf8");
  17. //设置表单的Entity对象到Post请求中
  18. httpPost.setEntity(formEntity);
  19. //设置表单的Entity对象到Post域中
  20. CloseableHttpResponse response = null;
  21. try {
  22. //使用HttpClient发起请求,获取response
  23. response = httpClient.execute(httpPost);
  24. //解析响应,
  25. if (response.getStatusLine().getStatusCode() == 200) {
  26. HttpEntity httpEntity = response.getEntity();
  27. String content = EntityUtils.toString(httpEntity, "utf8");
  28. System.out.println(content);
  29. System.out.println(content.length());
  30. }
  31. } catch (Exception e) {
  32. e.printStackTrace();
  33. } finally {
  34. //释放连接
  35. if (response != null) {
  36. response.close();
  37. }
  38. if(httpClient!=null){
  39. httpClient.close();
  40. }
  41. }
  42. }

请求结果

watermark_type_d3F5LXplbmhlaQ_shadow_50_text_Q1NETiBAVGVyZW5jZUtpbmc_size_12_color_FFFFFF_t_70_g_se_x_16 1

3.5. 连接池

如果每次请求都要创建HttpClient,会有频繁创建和销毁的问题,可以使用连接池来解决这个问题。

测试以下代码,并断点查看每次获取的HttpClient都是不一样的。

  1. /**
  2. * 连接池测试
  3. */
  4. @Test
  5. public void test6() {
  6. //创建连接池管理器
  7. PoolingHttpClientConnectionManager cm = new PoolingHttpClientConnectionManager();
  8. //设置最大连接数
  9. cm.setMaxTotal(200);
  10. //设置每个主机的并发数
  11. cm.setDefaultMaxPerRoute(20);
  12. //使用连接池管理器发起请求
  13. doGet(cm);
  14. doGet(cm);
  15. }
  16. private static void doGet(PoolingHttpClientConnectionManager cm) {
  17. //不是每次创建新到HttpClient,而是从连接池中获取HttpClient对象
  18. CloseableHttpClient httpClient = HttpClients.custom().setConnectionManager(cm).build();
  19. HttpGet httpGet = new HttpGet("http://www.itcast.cn/");
  20. CloseableHttpResponse response = null;
  21. try {
  22. response = httpClient.execute(httpGet);
  23. // 判断状态码是否是200
  24. if (response.getStatusLine().getStatusCode() == 200) {
  25. // 解析数据
  26. String content = EntityUtils.toString(response.getEntity(), "UTF-8");
  27. System.out.println(content.length());
  28. }
  29. } catch (Exception e) {
  30. e.printStackTrace();
  31. } finally {
  32. //释放连接
  33. if (response != null) {
  34. try {
  35. response.close();
  36. } catch (IOException e) {
  37. e.printStackTrace();
  38. }
  39. //不能关闭HttpClient
  40. //httpClient.close();
  41. }
  42. }
  43. }

3.6. 请求参数

有时候因为网络,或者目标服务器的原因,请求需要更长的时间才能完成,我们需要自定义相关时间

  1. /**
  2. * 请求参数
  3. */
  4. @Test
  5. public void test7(){
  6. //创建HttpClient对象
  7. CloseableHttpClient httpClient = HttpClients.createDefault();
  8. //创建HttpGet请求
  9. HttpGet httpGet = new HttpGet("http://www.itcast.cn/");
  10. //设置请求参数
  11. RequestConfig requestConfig = RequestConfig.custom()
  12. .setConnectTimeout(1000)//设置创建连接的最长时间
  13. .setConnectionRequestTimeout(500)//设置获取连接的最长时间
  14. .setSocketTimeout(10 * 1000)//设置数据传输的最长时间
  15. .build();
  16. httpGet.setConfig(requestConfig);
  17. CloseableHttpResponse response = null;
  18. try {
  19. //使用HttpClient发起请求
  20. response = httpClient.execute(httpGet);
  21. //判断响应状态码是否为200
  22. if (response.getStatusLine().getStatusCode() == 200) {
  23. //如果为200表示请求成功,获取返回数据
  24. String content = EntityUtils.toString(response.getEntity(), "UTF-8");
  25. //打印数据长度
  26. System.out.println(content);
  27. }
  28. } catch (Exception e) {
  29. e.printStackTrace();
  30. } finally {
  31. //释放连接
  32. if (response == null) {
  33. try {
  34. response.close();
  35. } catch (IOException e) {
  36. e.printStackTrace();
  37. }
  38. try {
  39. httpClient.close();
  40. } catch (IOException e) {
  41. e.printStackTrace();
  42. }
  43. }
  44. }
  45. }

4. Jsoup

我们抓取到页面之后,还需要对页面进行解析。可以使用字符串处理工具解析页面,也可以使用正则表达式,但是这些方法都会带来很大的开发成本,所以我们需要使用一款专门解析html页面的技术。

4.1. jsoup介绍

jsoup 是一款Java 的HTML解析器,可直接解析某个URL地址、HTML文本内容。它提供了一套非常省力的API,可通过DOM,CSS以及类似于jQuery的操作方法来取出和操作数据。

jsoup的主要功能如下:

1.从一个URL,文件或字符串中解析HTML;

2.可操作HTML元素、属性、文本;

3.使用DOM或CSS选择器来查找、取出数据;

先加入Jsoup依赖:

  1. <!--Jsoup-->
  2. <dependency>
  3. <groupId>org.jsoup</groupId>
  4. <artifactId>jsoup</artifactId>
  5. <version>1.10.3</version>
  6. </dependency>
  7. <!--工具-->
  8. <dependency>
  9. <groupId>org.apache.commons</groupId>
  10. <artifactId>commons-lang3</artifactId>
  11. <version>3.7</version>
  12. </dependency>
  13. <dependency>
  14. <groupId>commons-io</groupId>
  15. <artifactId>commons-io</artifactId>
  16. <version>2.6</version>
  17. </dependency>

4.2. jsoup解析

4.2.1. 解析url

Jsoup可以直接输入url,它会发起请求并获取数据,封装为Document对象

  1. /**
  2. * Jsoup解析Url
  3. * @throws Exception
  4. */
  5. @Test
  6. public void testJsoupUrl() throws Exception {
  7. //解析url地址
  8. Document document = Jsoup.parse(new URL("http://www.itcast.cn/"), 1000);
  9. //获取title的内容
  10. Element title = document.getElementsByTag("title").first();
  11. System.out.println(title.text());
  12. }

PS:虽然使用Jsoup可以替代HttpClient直接发起请求解析数据,但是往往不会这样用,因为实际的开发过程中,需要使用到多线程,连接池,代理等等方式,而jsoup对这些的支持并不是很好,所以我们一般把jsoup仅仅作为Html解析工具使用

4.2.2. 解析字符串

先准备以下jsoupTest.html文件

  1. <!DOCTYPE html>
  2. <html lang="en">
  3. <meta charset="UTF-8">
  4. <title>传智播客官网-一样的教育,不一样的品质</title>
  5. </head>
  6. <body>
  7. <div class="city">
  8. <h3 id="city_bj">北京中心</h3>
  9. <fb:img src="/2018czgw/images/slogan.jpg" class="slogan"/>
  10. <div class="city_in">
  11. <div class="city_con" style="display: none;">
  12. <ul>
  13. <li id="test" class="class_a class_b">
  14. <a href="http://www.itcast.cn" target="_blank">
  15. <span class="s_name">北京</span>
  16. </a>
  17. </li>
  18. <li>
  19. <a href="http://sh.itcast.cn" target="_blank">
  20. <span class="s_name">上海</span>
  21. </a>
  22. </li>
  23. <li>
  24. <a href="http://gz.itcast.cn" target="_blank">
  25. <span abc="123" class="s_name">广州</span>
  26. </a>
  27. </li>
  28. <ul>
  29. <li>天津</li>
  30. </ul>
  31. </ul>
  32. </div>
  33. </div>
  34. </div>
  35. </body>
  36. </html>

Jsoup可以直接输入字符串,并封装为Document对象

  1. /**
  2. * Jsoup解析字符串
  3. * @throws Exception
  4. */
  5. @Test
  6. public void testJsoupString() throws Exception {
  7. //读取文件获取
  8. String html = FileUtils.readFileToString(new File("/Users/terence/develop/IdeaProjects/crawler_demo/jsoupTest.html"), "UTF-8");
  9. //解析字符串
  10. Document document = Jsoup.parse(html);
  11. //获取title的内容
  12. Element title = document.getElementsByTag("title").first();
  13. System.out.println(title.text());
  14. }

4.2.3. 解析文件

Jsoup可以直接解析文件,并封装为Document对象

  1. /**
  2. * Jsoup解析文件
  3. */
  4. @Test
  5. public void testJsoupHtml() throws Exception {
  6. //解析文件
  7. Document document = Jsoup.parse(new File("/Users/terence/develop/IdeaProjects/crawler_demo/jsoupTest.html"), "UTF-8");
  8. //获取title的内容
  9. Element title = document.getElementsByTag("title").first();
  10. System.out.println(title.text());
  11. }

4.2.4. 使用dom方式遍历文档

元素获取

  1. 根据id查询元素getElementById
  2. 根据标签获取元素getElementsByTag
  3. 根据class获取元素getElementsByClass
  4. 根据属性获取元素getElementsByAttribute

    /* 使用dom方式遍历文档
    */
    @Test
    public void testDOM() throws IOException {

    1. //解析文件
    2. Document doc = Jsoup.parse(new File("/Users/terence/develop/IdeaProjects/crawler_demo/jsoupTest.html"), "UTF-8");
    3. //获取元素
    4. //1. 根据id查询元素getElementById
    5. //Element element = doc.getElementById("city_bj");
    6. //2. 根据标签获取元素getElementsByTag
    7. //Element element = doc.getElementsByTag("span").first();
    8. //3. 根据class获取元素getElementsByClass
    9. //Element element = doc.getElementsByClass("class_a class_b").first();
    10. //Element element = doc.getElementsByClass("class_a").first();
    11. //Element element = doc.getElementsByClass("class_b").first();
  1. //4. 根据属性获取元素getElementsByAttribute
  2. //Element element = doc.getElementsByAttribute("abc").first();
  3. Element element = doc.getElementsByAttributeValue("href", "http://sh.itcast.cn").first();
  4. //打印元素的内容
  5. System.out.println("获取到的元素内容是:" + element.text());
  6. }

元素中获取数据

  1. 从元素中获取id
  2. 从元素中获取className
  3. 从元素中获取属性的值attr
  4. 从元素中获取所有属性attributes
  5. 从元素中获取文本内容text

    @Test
    public void testData() throws Exception {

    1. //解析文件,获取Document
    2. Document doc = Jsoup.parse(new File("C:\\Users\\tree\\Desktop\\test.html"), "utf8");
    3. //根据id获取元素
    4. Element element = doc.getElementById("test");
    5. String str = "";
    6. //元素中获取数据
    7. //1. 从元素中获取id
    8. str = element.id();
    9. //2. 从元素中获取className
    10. str = element.className();
    11. //Set<String> classSet = element.classNames();
    12. //for (String s : classSet ) {
    13. // System.out.println(s);
    14. //}
    15. //3. 从元素中获取属性的值attr
    16. //str = element.attr("id");
    17. str = element.attr("class");
    18. //4. 从元素中获取所有属性attributes
    19. Attributes attributes = element.attributes();
    20. System.out.println(attributes.toString());
    21. //5. 从元素中获取文本内容text
    22. str = element.text();
    23. //打印获取到的内容
    24. System.out.println("获取到的数据是:" + str);

    }

4.2.5. 使用选择器语法查找元素

jsoup elements对象支持类似于CSS (或jquery)的选择器语法,来实现非常强大和灵活的查找功能。这个select 方法在Document, Element,或Elements对象中都可以使用。且是上下文相关的,因此可实现指定元素的过滤,或者链式选择访问。

Select方法将返回一个Elements集合,并提供一组方法来抽取和处理结果。

4.2.6. Selector选择器概述

tagname: 通过标签查找元素,比如:span

#id: 通过ID查找元素,比如:# city_bj

.class: 通过class名称查找元素,比如:.class_a

[attribute]: 利用属性查找元素,比如:[abc]

[attr=value]: 利用属性值来查找元素,比如:[class=s_name]

  1. @Test
  2. public void testSelector() throws Exception {
  3. //解析html文件,获取Document对象
  4. Document doc = Jsoup.parse(new File("/Users/terence/develop/IdeaProjects/crawler_demo/jsoupTest.html"), "UTF-8");
  5. //tagname: 通过标签查找元素,比如:span
  6. Elements elements = doc.select("span");
  7. //for (Element element : elements) {
  8. // System.out.println(element.text());
  9. //}
  10. //#id: 通过ID查找元素,比如:#city_bj
  11. //Element element = doc.select("#city_bj").first();
  12. //.class: 通过class名称查找元素,比如:.class_a
  13. //Element element = doc.select(".class_a").first();
  14. //[attribute]: 利用属性查找元素,比如:[abc]
  15. Element element = doc.select("[abc]").first();
  16. //[attr=value]: 利用属性值来查找元素,比如:[class=s_name]
  17. Elements elements1 = doc.select("[class=s_name]");
  18. for (Element element1 : elements1) {
  19. System.out.println(element1.text());
  20. }
  21. //打印结果
  22. System.out.println("获取到的结果是:" + element.text());
  23. }

4.2.7. Selector选择器组合使用

el#id: 元素+ID,比如: h3#city_bj

el.class: 元素+class,比如: li.class_a

el[attr]: 元素+属性名,比如: span[abc]

任意组合: 比如:span[abc].s_name

ancestor child: 查找某个元素下子元素,比如:.city_con li 查找”city_con”下的所有li

parent > child: 查找某个父元素下的直接子元素,比如:

.city_con > ul > li 查找city_con第一级(直接子元素)的ul,再找所有ul下的第一级li

parent > *: 查找某个父元素下所有直接子元素

  1. @Test
  2. public void testSelector2()throws Exception{
  3. //解析html文件,获取Document对象
  4. Document doc = Jsoup.parse(new File("/Users/terence/develop/IdeaProjects/crawler_demo/jsoupTest.html"), "UTF-8");
  5. //el#id: 元素+ID,比如: h3#city_bj
  6. Element element = doc.select("h3#city_bj").first();
  7. //el.class: 元素+class,比如: li.class_a
  8. element = doc.select("li.class_a").first();
  9. //el[attr]: 元素+属性名,比如: span[abc]
  10. element = doc.select("span[abc]").first();
  11. //任意组合: 比如:span[abc].s_name
  12. element = doc.select("span[abc].s_name").first();
  13. //ancestor child: 查找某个元素下子元素,比如:.city_con li 查找"city_con"下的所有li
  14. Elements elements = doc.select(".city_con li");
  15. //parent > child: 查找某个父元素下的直接子元素,比如:
  16. //.city_con > ul > li 查找city_con第一级(直接子元素)的ul,再找所有ul下的第一级li
  17. elements = doc.select(".city_con > ul > li");
  18. //parent > *: 查找某个父元素下所有直接子元素
  19. elements = doc.select(".city_con > ul > *");
  20. System.out.println("获取到的内容是:"+element.text());
  21. for (Element element1 : elements) {
  22. System.out.println("遍历的结果:"+element1.text());
  23. }
  24. }

发表评论

表情:
评论列表 (有 0 条评论,151人围观)

还没有评论,来说两句吧...

相关阅读