日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

Python之Html解析方法

 看見就非常 2020-05-08

一、強大的BeautifulSoupBeautifulSoup是一個可以從htmlxml文件中提取數(shù)據(jù)的Python庫。它能夠通過你喜歡的轉(zhuǎn)換器實現(xiàn)慣用的文檔導航、查找、修改文檔的方式。在Python開發(fā)中,主要用的是BeautifulSoup的查找提取功能,修改功能很少使用

1、安裝BeautifulSoup

pip3 install beautifulsoup4

2、安裝第三方html解析器lxml

pip3 install lxml

3、安裝純Python實現(xiàn)的html5lib解析器

pip3 install html5lib


二、BeautifulSoup的使用:

1、導入bs4

from bs4 import BeautifulSoup #導入bs4

2、創(chuàng)建包含html代碼的字符串

html_str = """

<html><head><title>The Dormouse's story</title></head>

<body>

<p class="title"><b>The Dormouse's stopy</b></p>

<p class="story">Once upon a time there were three little sisters;and their names where

<a href="http:///elsie" class="sister" id="link1"><!--Elsie--></a>

"""

3、創(chuàng)建BeautifulSoup對象

1)直接通過字符串方式創(chuàng)建

soup = BeautifulSoup(html_str,'lxml') #html.parser是解析器,也可是lxml

print(soup.prettify()) ------>輸出soup對象的內(nèi)容


2)通過已有的文件來創(chuàng)建

soup = BeautifulSoup(open('/home/index.html'),features='html.parser')#html.parser是解析器,也可是lxml

4、BeautifulSoup對象的種類:BeautifulSoup將復雜HTML文檔轉(zhuǎn)換成一個復雜的樹形結構,每個節(jié)點都是Python對象

1BeautifulSoup表示的是一個文檔的全部內(nèi)容。大部分時候,可以把它當作Tag對象,是一個特殊的Tag,因為BeautifulSoup對象并不是真正的HTMLXML,所以沒有nameattribute屬性

2Tag:與XMLHTML原生文檔中的Tag相同,通俗講就是標記

如:

抽取titleprintsoup.title

抽取a printsoup.a

抽取pprintsoup.p

Tag中有兩個重要的屬性:nameattributes。每個Tag都有自己的名字,通過.name來獲取

printsoup.title.name

操作Tag屬性的方法和操作字典相同

如:<p class=’p1’>Hello World</p>

printsoup.p[‘class’]

也可以直接“點”取屬性,如 .attrs 獲取Tag中所有屬性

printsoup.p.attrs

3NavigableString:獲取標記內(nèi)部的文字.string

BeautifulSoupNavigableString類來封裝Tag中的字符串,一個 NavigableString字符串與Python中的Unicode字符串相同,通過unicode()方法可以直接將 NavigableString對象轉(zhuǎn)換成Unicode字符串

如:u_string = unicode(soup.p.string)

4Comment:對于一些特殊對象,如果不清楚這個標記.string的情況下,可能造成數(shù)據(jù)提取混亂。因此在提取字符串時,可以判斷下類型:

if type(soup.a.string) == bs4.element.Comment:

print(soup.a.string)

5、遍歷文檔

1子節(jié)點:

A、對于直接子節(jié)點可以通過 .contents .children來訪問

.contents ---->Tag子節(jié)點以列表的方式輸出

printsoup.head.contents

.children ----->返回一個生成器,對Tag子節(jié)點進行循環(huán)

for child in soup.head.children:

printchild

B、獲取子節(jié)點的內(nèi)容

.string ---> 如果標記里沒有標記了,則返回內(nèi)容;如果標記里只有一個唯一的標記,則返回最里面的內(nèi)容;如果包含多個子節(jié)點,Tag無法確定.string方法應該返回哪個時,則返回None

.strings ---->主要應用于Tag中包含多個字符串的情況,可以進行循環(huán)遍歷

for str in soup.strings:

printrepr(str)


.stripped_string ----->可以去掉字符串中包含的空格或空行

for str in soup.stripped_strings:

print(repr(str))

2父節(jié)點

A、通過.parent屬性來獲取某個元素的父節(jié)點,如:

printsoup.title.parent

B、通過.parents屬性可以遞歸得到元素的所有父輩節(jié)點

for parent in soup.a.parents:

if parent is None:

print(parent)

else:

print(parent.name)

3兄弟節(jié)點

. next_sibling ----->獲取該節(jié)點的下一個兄弟節(jié)點

. previous_sibling ----->獲取該節(jié)點的上一個兄弟節(jié)點

4前后節(jié)點

. next_elements ----->獲得該節(jié)點前面的所有節(jié)點

. previous_elements ----->獲得該節(jié)點后面的所有節(jié)點

 

6、搜索文檔樹

1find_all(name,attrs,recursive,text,**kwargs)

A、name參數(shù):查找名字為name的標記

printsoup.find_all(‘‘’’b)

B、text參數(shù):查找文檔中字符串的內(nèi)容

C、 recursive參數(shù):檢索當前Tag的所有子孫節(jié)點時,若只想找直接子節(jié)點, 該參數(shù)設置為False


7CSS選擇器:使用soup.select()函數(shù)

1通過標記名查找

printsoup.select("title")

2通過Tagclass屬性值查找

printsoup.select(".sister")

3通過Tagid屬性值查找

printsoup.select("#sister")

4通過是否存在某個屬性查找

printsoup.select("a[href]")

5通過屬性值查找

printsoup.select('a[href="http://"]')

 

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多