列表数据
" />
本教程深入探讨了使用python进行网络爬虫时,如何解决`beautifulsoup`无法抓取动态加载内容的问题。当目标网页的`
在进行网页数据抓取时,Python的requests库结合BeautifulSoup是常用的工具组合。requests负责获取网页的原始HTML内容,而BeautifulSoup则用于解析这些HTML并提取所需数据。然而,随着现代网页技术的发展,越来越多的网站采用JavaScript进行内容渲染,通过AJAX(Asynchronous JavaScript and XML)异步加载数据。这意味着,当requests.get()获取到网页的初始HTML时,其中可能并不包含所有可见的内容,尤其是那些由JavaScript在页面加载完成后才填充的数据。
当尝试使用BeautifulSoup查找一个看似存在于页面上的zuojiankuohaophpcnul>标签(例如,通过soup.find('ul', id='demoFour')),却得到一个空的或不完整的标签时,这通常就是动态加载内容在作祟。传统的静态HTML解析方法在这种情况下会失效,因为目标数据尚未被嵌入到初始的HTML文档中。
解决动态内容抓取问题的关键在于识别数据是如何被异步加载的。浏览器提供的开发者工具是实现这一目标不可或缺的利器。以下是使用开发者工具(以Chrome为例)查找动态加载数据的步骤:
通过上述步骤,你就能定位到真正提供数据的API接口,而非依赖于初始的HTML页面。
立即学习“Python免费学习笔记(深入)”;
一旦通过开发者工具识别出提供数据的XHR接口,接下来的任务就是使用Python的requests库直接向该接口发送请求。这种方法绕过了前端JavaScript的渲染过程,直接从数据源获取原始数据。
通常,这些XHR接口会返回JSON格式的数据,这比解析HTML要简单得多。requests库可以直接将JSON响应解析为Python字典或列表,方便后续处理。
让我们以抓取斯里兰卡议会成员列表为例。初始的HTML页面中<ul>标签可能为空,但通过观察开发者工具,可以发现成员数据是通过一个POST请求异步加载的。
目标分析: 我们需要从一个API接口获取议员的ID、姓名和详情页URL。这个接口支持按字母筛选,所以我们需要遍历所有英文字母来获取完整的列表。
代码实现:
导入所需库:requests用于发送HTTP请求,string用于生成英文字母序列。
构建字母迭代循环: 议员列表是按字母分类的,我们可以遍历大写字母A-Z,为每个字母发送一个请求。
构造XHR请求URL和方法: 通过开发者工具分析,我们发现数据是从 https://www.parliament.lk/members-of-parliament/directory-of-members/index2.php?option=com_members&task=all&tmpl=component&letter={letter}&wordfilter=&search_district= 这个URL通过POST方法获取的,其中{letter}是动态变化的字母参数。
发送POST请求并解析JSON响应: 使用requests.post()方法发送请求,并通过result.json()将响应内容解析为Python对象。
提取并存储关键数据: 遍历JSON响应中的每个议员条目,提取其mem_intranet_id(ID)、member_sname_eng(英文姓名)以及构造其详情页的url。
完整代码示例:
from bs4 import BeautifulSoup
import requests
import string
# 用于存储所有议员数据的列表
data = []
# 遍历所有大写英文字母 (A-Z)
for letter in list(string.ascii_uppercase):
# 构造请求的URL。这个URL是根据开发者工具中XHR请求的实际地址确定的。
# 它是一个POST请求,并且通过letter参数筛选不同字母开头的议员。
xhr_url = f'https://www.parliament.lk/members-of-parliament/directory-of-members/index2.php?option=com_members&task=all&tmpl=component&letter={letter}&wordfilter=&search_district='
try:
# 发送POST请求到XHR接口
# 注意:这里可能需要根据实际情况添加headers,例如User-Agent,以模拟浏览器行为
result = requests.post(xhr_url)
result.raise_for_status() # 检查HTTP请求是否成功 (状态码200)
# 解析JSON响应
members_json = result.json()
# 遍历JSON数组中的每个议员信息
for member_info in members_json:
# 提取所需信息并构造详情页URL
member_id = member_info.get('mem_intranet_id')
member_name = member_info.get('member_sname_eng')
member_url = f"https://www.parliament.lk/en/members-of-parliament/directory-of-members/viewMember/{member_id}"
# 将提取的信息添加到数据列表中
data.append({
'url': member_url,
'id': member_id,
'name': member_name
})
except requests.exceptions.RequestException as e:
print(f"请求字母 {letter} 时发生错误: {e}")
except ValueError as e:
print(f"解析字母 {letter} 的JSON响应时发生错误: {e}")
# 打印抓取到的部分数据
# print(data[:5]) # 打印前5条数据
print(f"共抓取到 {len(data)} 条议员数据。")输出示例:
运行上述代码后,data列表将包含类似以下的议员信息:
[{'url': 'https://www.parliament.lk/en/members-of-parliament/directory-of-members/viewMember/3266',
'id': '3266',
'name': 'A. Aravindh Kumar'},
{'url': 'https://www.parliament.lk/en/members-of-parliament/directory-of-members/viewMember/50',
'id': '50',
'name': 'Abdul Haleem'},
{'url': 'https://www.parliament.lk/en/members-of-parliament/directory-of-members/viewMember/3325',
'id': '3325',
'name': 'Ajith Rajapakse'},
{'url': 'https://www.parliament.lk/en/members-of-parliament/directory-of-members/viewMember/3296',
'id': '3296',
'name': 'Akila Ellawala'},
{'url': 'https://www.parliament.lk/en/members-of-parliament/directory-of-members/viewMember/3355',
'id': '3355',
'name': 'Ali Sabri Raheem'},
...]在进行动态内容抓取时,除了上述核心方法,还需要考虑以下几点以确保爬虫的健壮性和合规性:
当BeautifulSoup在静态HTML中无法找到所需内容时,不要立即放弃。这通常意味着你面对的是一个动态加载内容的网站。通过熟练运用浏览器开发者工具,识别并直接请求提供数据的XHR接口,是解决这类问题的有效途径。掌握这一技术,将极大地扩展你的网络爬虫能力,使其能够应对更广泛的现代网页结构。记住,理解数据源的加载机制是成功爬取动态网页数据的关键。
以上就是动态内容抓取实战:Python爬取AJAX加载的列表数据的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号