网站首页 > 技术文章 正文
原文链接:https://blog.csdn.net/weixin_43521592/java/article/details/106733241
虽然学了前面两章可以自己爬取网页内容了,但这些内容夹杂了很多html代码啊,不相关的信息啊等等。
那本章就是解决一些手段对想要信息进行精准的提取,进而使爬取下来的信息都是我们想要的。
提取信息的技术有三种:XPath、BeautifulSoup、正则表达式 。
3.1 XPath
什么是 XPath ?(XML Path Language)
xpath是一门在XML和HTML文档中查找信息的语言,可用来在XML和HTML文档中对元素和属性进行遍历。
工欲善其事,必先利其器。当我们掌握了XPath语法时,可以利用浏览器自带的插件来帮我们现在浏览器中进行语法测试。
Goolege浏览器: XPath Helper
火狐浏览器:try XPath
来看一下基本用法:(我的是谷歌浏览器,火狐的操作也类似)
3.1.1 XPath语法:
选取节点:使用路径表达式来选取XML文件中的节点或节点集。
谓词:使用谓词来过滤一些节点,比如上面的 class=“j”
格式:[谓词]
路径表达式 描述
通配符:
通配符 描述 实例 结果
选取多个路径: |
同时获取class=‘c’的div和dd元素
//div[@class='c'] | //dd
3.1.2 lxml库
lxml是用C语言编写的HTML/XML解析器,主要功能是如何解析和提取HTML/XML数据。
我们可以利用之前学习的XPath语法,来快速定位特定元素以及节点。
使用前需要先安装:pip install lxml
基本使用的方式有两种:一个是对字符串进行解析,另一个是对HTML文件进行解析。
解析HTML文件
运用场景:当你需要对一个HTML文件进行解析或提取一些信息的时候。
声明:为了方便演示,下面我将假设我在D://TEST.html路径下的内容都可以满足要查找的条件
# 第一步:从lxml中导入etree。
# 注意,由于lxml是用c写的所以etree会没有提示
from lxml import etree
# 指定HTML解析器
parser = etree.HTMLParser()
# 解析HTML文件
html = etree.parse('D://TEST.html',parser) # 返回的是一个Element对象
# 1、获取所有tr标签
trs = html.xpath("//tr")
for tr in trs:
print(etree.tostring(tr,encoding='utf-8').decode('utf-8'))
#2、获取第2个tr标签
tr = html.xpath("//tr[2]")[0] # xpath返回的永远是一个列表
print(etree.tostring(tr,encoding='utf-8').decode('utf-8'))
#3、获取所有class等于even的tr标签
trs = html.xpath("//tr[@class="even"]")
#4、获取所有a标签的href属性(注意)
alist = html.xpath("//tr/@href")
for a in alist:
print("a")
#5、获取所有职位信息
trs = html.xpath("//tr[position()>1]")
for tr in trs:
# “.” 表示获取这个标签下的子孙元素。
href = tr.xpath(".//a/@href")[0]
print(href)
text = tr.xpath(".//a/text()") # 获取a标签下的文本内容
etree.HTMLParser() 是一种解析器方式,如果 **etree.parse**不指定解析器则默认使用的是XML解析器。
text() 表示提取该元素包裹的直接内容,比如<p>aaa</p> 当你使用p/text() 时获取到的内容为aaa。在比如<p><div>aaa</div></p>此时如果你使用 p/text() 的方法则获取不到内容,为什么呢?因为text()获取的是该标签下的内容,而aaa在div标签下,所以获取不到。
元素 /@ 属性名 的理解:表示取出该元素的属性名对应的属性值。区别于 /元素[@属性名=‘属性值’]
解析字符串
运用场景:当从网上爬取到信息时,需要对这些信息进行过滤,而这些爬取下来的信息就是字符串,所以我们可以利用lxml来解析它。
那来个小案例吧,这个小案例需要先把上面的5个知识点搞懂,理解起来才会比较容易。
案例:利用lxml爬取快代理的IP地址。
# 第一步:从lxml中导入etree。
from lxml import etree
import requests
# 要爬取的url,这里只爬取第一页内容
Proxy_url = "https://www.kuaidaili.com/free/inha/1/"
pro = "" # 用来存放拼接好的IP地址
PROXY = [] # 存放爬取下来的IP地址的列表
# 获取爬取内容
response = requests.get(Proxy_url)
text = response.text
# 将爬取的字符串放进lxml中解析
html = etree.HTML(text) # 返回的也是一个Element对象
# 利用xpath语法查找IP地址内容所在的元素
trs = html.xpath("//table[@class='table table-bordered table-striped']//tr")[1:]
# 把IP、端口号一个个提取出来并拼接在一起形成IP地址
for tr in trs:
# 提取IP
IP = tr.xpath("./td[@data-title='IP']/text()")[0]
# 提取端口号
PORT = tr.xpath("./td[@data-title='PORT']/text()")[0]
# 拼接成url
pro = "HTTP://" + IP + ":" + PORT
PROXY.append(pro)
print(PROXY)
trs = html.xpath("//table[@class='table table-bordered table-striped']//tr")[1:] 这句代码的意思是选取class为table table-bordered table-striped的table 下面除去第一个的所有tr。因为你检查元素后会发现,第一个tr是没有用的,所以要除去第一个。
tr.xpath("./td[@data-title='IP']/text()")[0] 表示提取当前的**tr标签下的 含有data-title='IP' 的td** 下面的直接内容,又因为xpath返回的是一个列表,所以需要[0]。
小结:
解析html字符串使用etree.HTML(string)解析,此方法默认使用HTML解析器。
解析html文件使用etree.parse(‘文件路径’)解析,此方法默认使用XML解析器。
xpath返回的永远是一个列表
etree在lxml库中
猜你喜欢
- 2024-11-14 Playwright自动化测试工具之元素定位实战
- 2024-11-14 利器 | AppCrawler 自动遍历测试实践(二):定制化配置
- 2024-11-14 java组件HuTool相关工具类的使用二
- 2024-11-14 手把手教你爬取热门小说《诡秘之主》
- 2024-11-14 Python爬虫之xpath用法全解析(py xpath)
- 2024-11-14 怎么用xpath写drissionpage?或者用相对位置?
- 2024-11-14 通过python+Xpath实现抓取某网站推荐的歌曲
- 2024-11-14 Python自动化工具(python写自动化工具)
- 2024-11-14 web自动化测试——xpath常用案例(web自动化测试平台)
- 2024-11-14 手把手教你如何用Python爬取网站文本信息
- 最近发表
- 标签列表
-
- cmd/c (57)
- c++中::是什么意思 (57)
- sqlset (59)
- ps可以打开pdf格式吗 (58)
- phprequire_once (61)
- localstorage.removeitem (74)
- routermode (59)
- vector线程安全吗 (70)
- & (66)
- java (73)
- org.redisson (64)
- log.warn (60)
- cannotinstantiatethetype (62)
- js数组插入 (83)
- resttemplateokhttp (59)
- gormwherein (64)
- linux删除一个文件夹 (65)
- mac安装java (72)
- reader.onload (61)
- outofmemoryerror是什么意思 (64)
- flask文件上传 (63)
- eacces (67)
- 查看mysql是否启动 (70)
- java是值传递还是引用传递 (58)
- 无效的列索引 (74)