
在进行网页数据抓取时,开发者通常会首先考虑使用beautifulsoup或selenium等工具。然而,面对现代网站日益复杂的动态加载机制,这些工具可能会遇到瓶颈。
当发现BeautifulSoup无法找到目标元素,或者Selenium虽然能加载页面但效率低下时,就需要考虑更深层次的解决方案。
解决动态加载内容爬取问题的关键在于理解其背后的数据加载机制。大多数动态内容都是通过前端JavaScript向后端API发送请求并获取数据。通过浏览器开发者工具,我们可以“窥探”这些幕后的API调用。
打开目标网站(例如Dermnet的搜索结果页),按下F12键或右键点击页面选择“检查”打开开发者工具。导航到“网络 (Network)”标签页。
在“网络”标签页中,重新加载页面或执行触发图片加载的操作(如滚动、点击搜索)。你会看到一系列的网络请求。我们需要仔细观察这些请求,寻找与图片数据相关的API调用。
立即学习“前端免费学习笔记(深入)”;
在“网络”标签页中,尝试点击网站上的“下一页”按钮或滚动加载更多内容。观察API请求的URL参数如何变化。通常,会有一个参数(如start、page或offset)用于控制分页。例如,如果第一页从start=1开始,每页显示16张图片,那么第二页可能从start=17开始。
一旦我们定位了API请求并理解了其参数和响应结构,就可以使用HTTP客户端库(如Python的requests)直接调用API来获取数据。
根据开发者工具中观察到的信息,构建API请求的URL和参数字典。
import requests
import json
import re # For parsing JSONP
def fetch_dermnet_images_from_api(query_term, start_index=1, num_results=16):
"""
从Dermnet网站的Google CSE API抓取图片信息。
:param query_term: 搜索关键词。
:param start_index: 结果的起始索引(用于分页)。
:param num_results: 每页返回结果的数量。
:return: 包含图片信息的列表。
"""
base_url = "https://cse.google.com/cse/element/v1"
# 根据网络请求观察到的参数构建
params = {
"rsz": "large",
"num": num_results,
"hl": "en",
"source": "gcsc",
"gss": ".com",
"cselibv": "8e77c7877b8339e2", # 注意: 此参数可能随时间变化,需定期检查
"searchtype": "image",
"cx": "015036873904746004277:nz7deehiccq",
"q": query_term,
"safe": "off",
"start": start_index, # 分页参数
"exp": "csqr,cc,bf",
"callback": "google.search.cse.api10440" # 保持此参数以获取JSONP格式
}
# 模拟浏览器User-Agent,避免被识别为爬虫
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"
}
images_data = []
try:
response = requests.get(base_url, params=params, headers=headers, timeout=10)
response.raise_for_status() # 如果请求失败(HTTP状态码非200),则抛出异常
# 解析JSONP响应
# 响应格式通常为 google.search.cse.apiXXXXX({...JSON_CONTENT...})
jsonp_content = response.text
match = re.search(r'^\w+\((.*)\)$', jsonp_content, re.DOTALL)
if match:
json_str = match.group(1)
data = json.loads(json_str)
if "results" in data:
for item in data["results"]:
if "image" in item:
images_data.append({
"title": item.get("title", "No Title"),
"url": item["image"].get("src", ""),
"thumbnail_url": item["image"].get("thumbnailSrc", ""),
"width": item["image"].get("width", 0),
"height": item["image"].get("height", 0)
})
else:
print(f"Error: Could not parse JSONP response for query '{query_term}'.")
print(f"Raw response start: {jsonp_content[:200]}...")
except requests.exceptions.RequestException as e:
print(f"Network or HTTP error for query '{query_term}': {e}")
except json.JSONDecodeError as e:
print(f"JSON decoding error for query '{query_term}': {e}")
except Exception as e:
print(f"An unexpected error occurred for query '{query_term}': {e}")
return images_data
# 示例用法:
if __name__ == "__main__":
search_query = "basal cell carcinoma dermoscopy"
print(f"--- 抓取第一页 '{search_query}' 的图片 ---")
first_page_images = fetch_dermnet_images_from_api(search_query, start_index=1, num_results=16)
if first_page_images:
print(f"第一页共找到 {len(first_page_images)} 张图片。")
for i, img in enumerate(first_page_images[:3]): # 只打印前3张示例
print(f" {i+1}. 标题: {img['title']}, URL: {img['url']}")
else:
print("未找到第一页图片或发生错误。")
print(f"\n--- 抓取第二页 '{search_query}' 的图片 ---")
# 假设每页16张,第二页从索引17开始
second_page_images = fetch_dermnet_images_from_api(search_query, start_index=17, num_results=16)
if second_page_images:
print(f"第二页共找到 {len(second_page_images)} 张图片。")
for i, img in enumerate(second_page_images[:3]): # 只打印前3张示例
print(f" {i+1}. 标题: {img['title']}, URL: {img['url']}")
else:
print("未找到第二页图片或发生错误。")在进行API抓取时,需要考虑以下几点以确保爬虫的稳定性和合规性:
当传统的网页爬取方法在面对JavaScript动态加载内容的网站时遇到困难,通过深入分析浏览器开发者工具中的网络请求,直接定位并利用网站后端调用的API接口,是一种更高效、更稳定的解决方案。这种方法不仅能绕过前端渲染的复杂性,直接获取结构化的数据,还能更好地处理分页等场景。掌握这一技能,是成为一名高级爬虫工程师的重要一步。
以上就是动态网站图片抓取进阶:利用Google CSE API绕过前端渲染限制的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号