服务器之家

服务器之家 > 正文

htmlcleaner使用方法及xpath语法初探

时间:2020-01-02 14:16     来源/作者:mdxy-dxy

在编程的时候或者写网络爬虫的时候,经常需要对html进行解析,抽取其中有用的数据。一款好的工具是特别有用的,能提供很多的帮助,网上有很多这样的工具,比如:htmlcleaner、htmlparser

经使用比较:感觉 htmlcleaner 比 htmlparser 好用,尤其是htmlcleaner 的 xpath特好用。

下面针对htmlcleaner进行举例说明,需求为:取出title,name=”my_href” 的链接,div的class=”d_1″下的所有li内容。

一、HtmlCleaner使用:

1、HtmlCleaner

HtmlCleaner是一个开源的Java语言的Html文档解析器。HtmlCleaner能够重新整理HTML文档的每个元素并生成结构良好(Well-Formed)的 HTML 文档。默认它遵循的规则是类似于大部份web浏览器为创文档对象模型所使用的规则。然而,用户可以提供自定义tag和规则组来进行过滤和匹配。

主页地址:http://htmlcleaner.sourceforge.net/


2、基本示例,在wikipedia中抓取机场信息

html-clean-demo.html

 

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
html-clean-demo.html
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd ">
<html xmlns = "http://www.w3.org/1999/xhtml " xml:lang = "zh-CN" dir = "ltr">
<head>
    <meta http-equiv = "Content-Type" content = "text/html; charset=GBK" />
    <meta http-equiv = "Content-Language" content = "zh-CN" />
    <title>html clean demo </title>
</head>
<body>
<div class = "d_1">
    <ul>
        <li>bar </li>
        <li>foo </li>
        <li>gzz </li>
    </ul>
</div>
<div>
    <ul>
        <li><a name = "my_href" href = "1.html">text-1 </a></li>
        <li><a name = "my_href" href = "2.html">text-2 </a></li>
        <li><a name = "my_href" href = "3.html">text-3 </a></li>
        <li><a name = "my_href" href = "4.html">text-4 </a></li>
    </ul>
</div>
</body>
</html>

HtmlCleanerDemo.java

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
package com.chenlb;
import java.io.File;
import org.htmlcleaner.HtmlCleaner;
import org.htmlcleaner.TagNode;
/**
 * htmlcleaner 使用示例.
 *
 */
public class HtmlCleanerDemo {
    public static void main(String[] args) throws Exception {
        HtmlCleaner cleaner = new HtmlCleaner();
        TagNode node = cleaner.clean(new File("html/html-clean-demo.html"), "GBK");
        //按tag取.
        Object[] ns = node.getElementsByName("title", true);    //标题
        if(ns.length > 0) {
            System.out.println("title="+((TagNode)ns[0]).getText());
        }
        System.out.println("ul/li:");
        //按xpath取
        ns = node.evaluateXPath("//div[@class='d_1']//li");
        for(Object on : ns) {
            TagNode n = (TagNode) on;
            System.out.println(" text="+n.getText());
        }
        System.out.println("a:");
        //按属性值取
        ns = node.getElementsByAttValue("name", "my_href", true, true);
        for(Object on : ns) {
            TagNode n = (TagNode) on;
            System.out.println(" href="+n.getAttributeByName("href")+", text="+n.getText());
        }
    }
}

cleaner.clean()中的参数,可以是文件,可以是url,可以是字符串内容。比较常用的应该是evaluateXPath、 getElementsByAttValue、getElementsByName方法了。另外说明下,htmlcleaner 对不规范的html兼容性比较好。

 

在wikipedia中抓取机场信息

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
import java.io.UnsupportedEncodingException;
import org.htmlcleaner.HtmlCleaner;
import org.htmlcleaner.TagNode;
import org.htmlcleaner.XPatherException;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
//import com.moore.index.BabyStory;
import com.moore.util.HttpClientUtil;
/**
 * 用途:TODO
 *
 * @author bbdtek
 */
public class ParserAirport {
    private static Logger log = LoggerFactory.getLogger(ParserAirport.class);
    /**
     * @param args
     * @throws UnsupportedEncodingException
     * @throws XPatherException
     */
    public static void main(String[] args) throws UnsupportedEncodingException,
            XPatherException {
        String url = "http://zh.wikipedia.org/wiki/%E4%B8%AD%E5%8D%8E%E4%BA%BA%E6%B0%91%E5%85%B1%E5%92%8C%E5%9B%BD%E6%9C%BA%E5%9C%BA%E5%88%97%E8%A1%A8";
        String contents = HttpClientUtil.getUtil().getCon(url);
        HtmlCleaner hc = new HtmlCleaner();
        TagNode tn = hc.clean(contents);
        String xpath = "//div[@class='mw-content-ltr']//table[@class='wikitable + sortable']//tbody//tr[@align='right']";
        Object[] objarr = null;
        objarr = tn.evaluateXPath(xpath);
        if (objarr != null && objarr.length > 0) {
            for (Object obj : objarr) {
                TagNode tntr = (TagNode) obj;
                String xptr = "//td[@align='left']//a";
                Object[] objarrtr = null;
                objarrtr = tntr.evaluateXPath(xptr);
                if (objarrtr != null && objarrtr.length > 0) {
                    for (Object obja : objarrtr) {
                        TagNode tna = (TagNode) obja;
                        String str = tna.getText().toString();
                        log.info(str);
                    }
                }
            }
        }
    }
}

二、XPath初探

1、XPath简介:

XPath 是一门在 XML 文档中查找信息的语言。XPath 可用来在 XML 文档中对元素和属性进行遍历。

2、XPath节点选取


XPath 使用路径表达式在 XML 文档中选取节点。节点是通过沿着路径或者 step 来选取的。

下面列出了最有用的路径表达式:

 

表达式

描述

nodename

选取此节点的所有子节点。

/

从根节点选取。

//

从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。

.

选取当前节点。

..

选取当前节点的父节点。

@

选取属性。

 

 

一些常用表达式

 

 

路径表达式

结果

/bookstore/book[1]

选取属于 bookstore 子元素的第一个 book 元素。

/bookstore/book[last()]

选取属于 bookstore 子元素的最后一个 book 元素。

/bookstore/book[last()-1]

选取属于 bookstore 子元素的倒数第二个 book 元素。

/bookstore/book[position()<3]

选取最前面的两个属于 bookstore 元素的子元素的 book 元素。

//title[@lang]

选取所有拥有名为 lang 的属性的 title 元素。

//title[@lang='eng']

选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。

/bookstore/book[price>35.00]

选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。

/bookstore/book[price>35.00]/title

选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。

 

标签:

相关文章

热门资讯

玄元剑仙肉身有什么用 玄元剑仙肉身境界等级划分
玄元剑仙肉身有什么用 玄元剑仙肉身境界等级划分 2019-06-21
男生常说24816是什么意思?女生说13579是什么意思?
男生常说24816是什么意思?女生说13579是什么意思? 2019-09-17
配置IIS网站web服务器的安全策略配置解决方案
配置IIS网站web服务器的安全策略配置解决方案 2019-05-23
华为nova5pro和p30pro哪个好 华为nova5pro和华为p30pro对比详情
华为nova5pro和p30pro哪个好 华为nova5pro和华为p30pro对比详情 2019-06-22
Nginx服务器究竟是怎么执行PHP项目
Nginx服务器究竟是怎么执行PHP项目 2019-05-24
返回顶部