
本文详细介绍了如何在不使用selenium或beautifulsoup等模拟点击工具的情况下,利用python的`requests`库和网站的api接口,高效抓取techcrunch等网站动态加载的文章内容。通过浏览器开发者工具识别隐藏的api请求,并循环调用分页api,实现对大量文章的自动化数据采集,克服了“加载更多”按钮的限制。
在许多现代网站上,为了提升用户体验,内容通常是动态加载的。这意味着当你首次访问页面时,浏览器接收到的HTML可能只包含一部分内容。当用户滚动页面或点击“加载更多”按钮时,网站会通过JavaScript向后端发送请求,获取更多数据,然后动态地插入到页面中。对于爬虫而言,如果仅抓取初始HTML,就无法获取到全部内容。
传统的网页抓取方法,如结合requests和BeautifulSoup,主要针对静态HTML内容。当网站内容依赖于JavaScript动态加载时,这些工具就显得力不从心。虽然Selenium等自动化测试工具可以模拟用户行为(如点击按钮、滚动页面)来触发JavaScript执行,进而获取动态内容,但它们通常资源消耗较大,运行速度较慢,并且在某些环境下可能无法使用。
为了在不使用Selenium等工具的情况下获取动态加载的内容,关键在于找到网站用来获取这些数据的API接口。这些API请求通常返回JSON格式的数据,其中包含了我们所需的内容。
如何发现这些API接口?
立即学习“Python免费学习笔记(深入)”;
最有效的方法是利用浏览器的“开发者工具”(Developer Tools)。以下是具体步骤:
对于TechCrunch网站,当你点击“加载更多”按钮后,在“网络”选项卡中,你会发现一个形如 https://techcrunch.com/wp-json/tc/v1/magazine?page={page}&_embed=true&es=true&cachePrevention=0 的请求。这就是我们需要的API接口。
通过上述步骤,我们识别出了TechCrunch用于分页加载文章的API接口:
https://techcrunch.com/wp-json/tc/v1/magazine?page={page}&_embed=true&es=true&cachePrevention=0
仔细观察这个URL,我们可以发现几个关键点:
这个API返回的数据是JSON格式,每一页的响应都包含一个文章列表,每篇文章又是一个字典,其中包含了标题、链接、摘要等详细信息。
有了API接口,我们就可以使用Python的requests库来发送HTTP请求,获取并解析数据了。
以下是一个完整的Python示例代码,演示如何迭代抓取TechCrunch的多页文章标题:
import requests
import time
import json # 用于美观打印JSON数据,可选
# 定义API的基础URL,其中{page}是页码的占位符
api_url_template = "https://techcrunch.com/wp-json/tc/v1/magazine?page={page}&_embed=true&es=true&cachePrevention=0"
# 定义要抓取的页数范围
# 注意:这里我们抓取1到9页,共9页。实际应用中可根据需求调整。
# 网站可能没有无限页,抓取过多不存在的页码可能会返回空列表或错误。
num_pages_to_fetch = 10
print(f"开始抓取TechCrunch文章,预计抓取 {num_pages_to_fetch-1} 页...")
all_articles_data = []
for page_num in range(1, num_pages_to_fetch): # 从第1页开始
current_api_url = api_url_template.format(page=page_num)
print(f"\n正在请求第 {page_num} 页: {current_api_url}")
try:
# 发送GET请求
response = requests.get(current_api_url)
response.raise_for_status() # 检查请求是否成功,如果状态码不是200,则抛出HTTPError
# 解析JSON响应
data = response.json()
if not data:
print(f"第 {page_num} 页没有返回数据,可能已到达最后一页或请求有误。")
break # 如果返回空列表,则认为没有更多文章了,退出循环
# 遍历当前页的所有文章
for article in data:
title = article.get("title", {}).get("rendered", "无标题")
link = article.get("link", "无链接")
# 可以根据需要提取更多字段,例如摘要、发布日期等
# summary = article.get("excerpt", {}).get("rendered", "无摘要")
# published_date = article.get("date", "无日期")
print(f" - 标题: {title}")
# print(f" 链接: {link}")
# print(f" 摘要: {summary}")
# print(f" 发布日期: {published_date}")
all_articles_data.append({
"title": title,
"link": link,
# ... 其他需要存储的数据
})
except requests.exceptions.RequestException as e:
print(f"请求第 {page_num} 页时发生错误: {e}")
except json.JSONDecodeError:
print(f"解析第 {page_num} 页的JSON响应时发生错误。")
# 为了避免给服务器造成过大压力,建议在每次请求后暂停一段时间
time.sleep(1) # 暂停1秒
print(f"\n抓取完成!共抓取到 {len(all_articles_data)} 篇文章。")
# 示例:打印所有抓取到的文章标题(或存储到文件)
# for article in all_articles_data:
# print(f"最终文章列表 - 标题: {article['title']}")
# 可以将数据保存到JSON文件
# with open("techcrunch_articles.json", "w", encoding="utf-8") as f:
# json.dump(all_articles_data, f, ensure_ascii=False, indent=4)
# print("文章数据已保存到 techcrunch_articles.json")代码解析:
通过利用Web开发者工具发现网站的隐藏API接口,并结合Python的requests库,我们能够高效、灵活地抓取动态加载的内容,而无需依赖资源密集型的浏览器自动化工具。这种方法不仅速度更快,资源消耗更少,而且更隐蔽。掌握这一技巧,是进行现代网页数据采集的关键能力之一。
以上就是使用Python和API高效抓取TechCrunch动态加载文章教程的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号