
本教程详细阐述了如何在不使用selenium或beautifulsoup等浏览器自动化工具的情况下,通过python的requests库抓取techcrunch网站上动态加载的“隐藏”文章。核心方法是识别并利用网站后端的分页api,通过模拟api请求来获取多页文章数据,从而解决“加载更多”按钮限制的问题。文章将提供具体的代码示例和操作指南,帮助读者高效地获取所需文章信息。
在现代网页中,许多网站为了提升用户体验,采用JavaScript动态加载内容。例如,点击“加载更多”按钮或滚动到页面底部时,新内容才会显示。对于传统的网页抓取工具(如仅基于HTML解析的BeautifulSoup),这些初始未加载的内容是“隐藏”的,无法直接获取。虽然Selenium等浏览器自动化工具可以模拟用户行为(如点击按钮),但它们通常资源消耗较大,且在某些受限环境中可能无法使用。
本文将介绍一种更高效、更轻量级的方法:直接与网站的后端API交互。当网站使用“加载更多”机制时,往往是通过向某个API端点发送请求来获取新数据,然后用JavaScript将这些数据渲染到页面上。只要我们能识别出这个API,就可以直接模拟这些请求来获取数据。
识别动态加载内容的API是解决问题的关键一步。这通常需要借助浏览器的开发者工具:
一旦识别出API的URL模式,我们就可以使用Python的 requests 库来模拟这些请求并获取数据。
首先,确保你已经安装了 requests 库:
pip install requests
接下来,编写Python代码来循环请求不同页码的数据:
import requests
import json # 用于美化输出,可选
# 定义API的基础URL模板
# 注意:{page} 是一个占位符,用于插入页码
api_url_template = "https://techcrunch.com/wp-json/tc/v1/magazine?page={page}&_embed=true&es=true&cachePrevention=0"
# 定义要抓取的页数。根据需要调整这个数字。
# 例如,抓取10页,每页可能包含20篇文章,总共200篇文章。
num_pages_to_fetch = 10
all_articles_data = []
print(f"开始抓取TechCrunch文章,预计抓取 {num_pages_to_fetch} 页...")
for page_number in range(1, num_pages_to_fetch + 1):
# 构建当前页的完整API URL
current_page_url = api_url_template.format(page=page_number)
try:
print(f"正在请求第 {page_number} 页:{current_page_url}")
# 发送GET请求到API端点
response = requests.get(current_page_url)
# 检查请求是否成功(状态码200)
response.raise_for_status()
# 将JSON响应解析为Python列表或字典
page_data = response.json()
# 如果当前页没有数据,可能已经到达了末尾
if not page_data:
print(f"第 {page_number} 页没有数据,停止抓取。")
break
for article in page_data:
# 提取文章标题
title = article.get("title", {}).get("rendered", "无标题")
# 提取文章链接
link = article.get("link", "无链接")
print(f" - 标题: {title}")
print(f" 链接: {link}")
# 将提取到的文章数据添加到总列表中
all_articles_data.append({
"title": title,
"link": link,
# 可以根据API响应结构添加更多字段,例如摘要、作者等
# "excerpt": article.get("excerpt", {}).get("rendered", ""),
# "author_name": article.get("_embedded", {}).get("author", [{}])[0].get("name", "")
})
except requests.exceptions.RequestException as e:
print(f"请求第 {page_number} 页时发生错误: {e}")
# 可以选择跳过当前页继续下一页,或者在此处停止
print(f"\n抓取完成!共获取到 {len(all_articles_data)} 篇文章数据。")
# 可以将所有数据保存到JSON文件或进行进一步处理
# with open("techcrunch_articles.json", "w", encoding="utf-8") as f:
# json.dump(all_articles_data, f, ensure_ascii=False, indent=4)
# print("所有文章数据已保存到 techcrunch_articles.json")代码解释:
上述代码主要演示了如何获取文章的标题和链接。根据API响应的结构,你还可以提取更多信息:
通过直接与网站的API交互,我们可以绕过前端动态加载的限制,高效地获取大量结构化数据,而无需依赖资源密集型的浏览器自动化工具。这种方法不仅速度更快,而且对服务器的负担也更小(如果合理控制请求频率)。掌握如何识别和利用网站API是现代网页数据抓取中一项非常重要的技能。
以上就是利用Requests库高效抓取TechCrunch动态加载文章:API分页教程的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号