使用BeautifulSoup处理缺失元素:构建健壮的网页数据抓取教程

霞舞
发布: 2025-10-07 13:21:00
原创
293人浏览过

使用BeautifulSoup处理缺失元素:构建健壮的网页数据抓取教程

本教程详细介绍了如何使用Python的requests和BeautifulSoup库进行网页数据抓取,并重点解决在抓取过程中因目标元素缺失导致数据错位的问题。通过迭代父级容器、条件式地提取子元素以及使用numpy.nan填充缺失值,确保数据准确对齐,最终生成结构化的Pandas DataFrame。

1. 引言:网页数据抓取的挑战与数据对齐问题

在进行网页数据抓取(web scraping)时,我们常常会遇到目标网站结构不完全一致的情况。例如,某些数据记录可能包含所有预期的字段,而另一些记录则可能缺少部分字段。如果我们在抓取时未能妥善处理这些缺失的元素,很可能导致最终收集到的数据出现错位,从而影响数据的准确性和可用性。

本教程将以抓取漫画店名称及其网站为例,演示如何使用requests和BeautifulSoup库,结合pandas和numpy,构建一个健壮的抓取脚本,以确保即使在部分信息缺失的情况下,也能正确地将数据对齐。

2. 准备工作:所需库的安装

在开始之前,请确保您已经安装了以下Python库:

  • requests: 用于发送HTTP请求,获取网页内容。
  • BeautifulSoup4: 用于解析HTML和XML文档,从中提取数据。
  • pandas: 用于数据处理和分析,特别是构建DataFrame。
  • numpy: 提供nan(非数字)值,用于表示缺失数据。

您可以使用pip安装它们:

pip install requests beautifulsoup4 pandas numpy
登录后复制

3. 核心思路:按记录迭代与条件式提取

解决数据错位的关键在于按记录迭代。而不是分别抓取所有名称和所有网站,我们应该找到一个能够代表单个数据记录(例如,单个商店)的父级HTML元素,然后在这个父级元素内部提取该记录的所有相关信息。如果某个信息不存在,我们则明确地用一个占位符(如np.nan)来表示。

对于本例,我们观察目标网页结构,发现每个商店的信息都被包裹在一个div标签中,其class为CslsLocationItem。这将是我们迭代的基石。

3.1 抓取主页面数据

首先,我们需要发送HTTP请求获取主页面的HTML内容,并使用BeautifulSoup进行解析。

import requests
import numpy as np
import pandas as pd
from bs4 import BeautifulSoup

# 目标URL
url = "https://www.comicshoplocator.com/StoreLocatorPremier?query=75077&showCsls=true"

# 发送请求并解析HTML
response = requests.get(url)
soup = BeautifulSoup(response.content, "html.parser")

# 用于存储所有商店数据的列表
all_data = []
登录后复制

3.2 迭代商店记录并提取信息

接下来,我们将遍历所有CslsLocationItem元素。对于每个商店,我们将执行以下步骤:

Tellers AI
Tellers AI

Tellers是一款自动视频编辑工具,可以将文本、文章或故事转换为视频。

Tellers AI 78
查看详情 Tellers AI
  1. 提取商店名称。
  2. 检查是否存在指向商店详情页的链接。
  3. 如果存在详情页链接,则访问该页面并提取网站链接。
  4. 如果不存在详情页链接或详情页中没有网站链接,则用np.nan填充。
for shop in soup.select(".CslsLocationItem"):
    # 1. 提取商店名称
    # 使用.select_one()确保只获取第一个匹配项
    name_tag = shop.select_one(".LocationName")
    name = name_tag.text if name_tag else np.nan # 确保元素存在

    # 2. 检查是否存在商店详情页链接
    profile_link_tag = shop.select_one(".LocationShopProfile a")
    website_url = np.nan # 默认网站链接为NaN

    if profile_link_tag:
        # 如果存在详情页链接,则构建完整URL并访问
        profile_page_url = "https://www.comicshoplocator.com" + profile_link_tag["href"]
        profile_response = requests.get(profile_page_url)
        profile_soup = BeautifulSoup(profile_response.content, "html.parser")

        # 3. 在详情页中提取网站链接
        web_link_tag = profile_soup.select_one(".StoreWeb a")
        if web_link_tag:
            website_url = web_link_tag["href"]
        # else: website_url 保持为 np.nan

    # 将名称和网站URL作为元组添加到列表中
    all_data.append((name, website_url))
登录后复制

代码解析与改进点:

  • soup.select(".CslsLocationItem"): 使用CSS选择器select()方法可以高效地选择所有匹配的元素。CslsLocationItem是每个商店信息块的父容器。
  • shop.select_one(".LocationName"): 在每个shop元素内部,使用select_one()来查找唯一的商店名称元素。select_one()返回第一个匹配的元素或None。
  • 条件检查 if name_tag:: 在尝试访问name_tag.text之前,先检查name_tag是否存在,防止AttributeError。
  • 嵌套请求: 当发现profile_link_tag时,我们才发起第二个HTTP请求去抓取商店详情页。这避免了不必要的请求,并且将网站信息的提取逻辑封装在条件分支内。
  • u["href"] if u else np.nan: 这是一个简洁的Python三元表达式,用于在元素存在时提取href属性,否则直接使用np.nan。这确保了即使没有网站链接,该商店的网站字段也会被正确地标记为缺失值,而不是导致数据错位。
  • np.nan: numpy.nan是表示缺失值的标准方式,尤其在与Pandas DataFrame结合使用时,它能被Pandas很好地识别和处理。

4. 构建Pandas DataFrame

抓取完所有数据后,我们可以将其转换为一个结构化的Pandas DataFrame,以便于后续的数据分析和存储。

# 使用抓取到的数据创建DataFrame
df = pd.DataFrame(all_data, columns=["Name", "Website"])

# 打印结果(以Markdown表格形式,便于查看)
print(df.to_markdown(index=False))
登录后复制

预期输出示例:

| Name                      | Website                          |
|:--------------------------|:---------------------------------|
| TWENTY ELEVEN COMICS      | http://WWW.TWENTYELEVENCOMICS.COM |
| READ COMICS               | nan                              |
| BOOMERANG COMICS          | http://www.boomerangcomics.com   |
| MORE FUN COMICS AND GAMES | http://www.facebook.com/morefuncomics |
| MADNESS COMICS & GAMES    | http://www.madnesscomicsandgames.com |
| SANCTUARY BOOKS AND GAMES | nan                              |
登录后复制

可以看到,READ COMICS和SANCTUARY BOOKS AND GAMES由于没有对应的网站信息,其Website列被正确地填充为nan,而其他商店的数据则准确对齐。

5. 完整代码示例

import requests
import numpy as np
import pandas as pd
from bs4 import BeautifulSoup

def scrape_comic_shops(query_zip_code="75077"):
    """
    抓取指定邮政编码区域的漫画店名称和网站。

    Args:
        query_zip_code (str): 查询的邮政编码。

    Returns:
        pd.DataFrame: 包含漫画店名称和网站的DataFrame。
                      如果网站不存在,则对应值为np.nan。
    """
    base_url = "https://www.comicshoplocator.com"
    search_url = f"{base_url}/StoreLocatorPremier?query={query_zip_code}&showCsls=true"

    try:
        response = requests.get(search_url)
        response.raise_for_status() # 检查HTTP请求是否成功
    except requests.exceptions.RequestException as e:
        print(f"请求主页面失败: {e}")
        return pd.DataFrame(columns=["Name", "Website"])

    soup = BeautifulSoup(response.content, "html.parser")
    all_data = []

    # 遍历每个商店的父容器
    for shop in soup.select(".CslsLocationItem"):
        name_tag = shop.select_one(".LocationName")
        name = name_tag.text.strip() if name_tag else np.nan

        profile_link_tag = shop.select_one(".LocationShopProfile a")
        website_url = np.nan

        if profile_link_tag and 'href' in profile_link_tag.attrs:
            profile_path = profile_link_tag["href"]
            profile_page_url = f"{base_url}{profile_path}"

            try:
                profile_response = requests.get(profile_page_url)
                profile_response.raise_for_status()
                profile_soup = BeautifulSoup(profile_response.content, "html.parser")

                web_link_tag = profile_soup.select_one(".StoreWeb a")
                if web_link_tag and 'href' in web_link_tag.attrs:
                    website_url = web_link_tag["href"].strip()
            except requests.exceptions.RequestException as e:
                print(f"请求商店详情页 {profile_page_url} 失败: {e}")
                # 如果请求失败,website_url 保持为 np.nan

        all_data.append((name, website_url))

    df = pd.DataFrame(all_data, columns=["Name", "Website"])
    return df

if __name__ == "__main__":
    df_result = scrape_comic_shops(query_zip_code="75077")
    print("抓取结果:")
    print(df_result.to_markdown(index=False))
登录后复制

6. 注意事项与最佳实践

  • 错误处理: 在实际的抓取任务中,网络请求可能会失败(例如,网络连接问题、服务器错误)。使用try-except块来捕获requests.exceptions.RequestException可以使您的脚本更加健壮。
  • 用户代理 (User-Agent): 某些网站可能会检查请求的User-Agent头。在requests.get()中添加headers参数可以模拟浏览器请求,减少被阻止的可能性。
  • 网站结构变化: 网页结构可能会随时改变。如果脚本突然失效,通常是由于网站HTML结构发生了变化,需要更新相应的CSS选择器。
  • 道德与法律: 在进行网页抓取时,请务必遵守网站的robots.txt协议,并尊重网站的使用条款。避免对网站造成过大负担(例如,短时间内发送大量请求),可以考虑引入延时(time.sleep())。
  • 数据清洗: 抓取到的文本数据可能包含额外的空白字符或不必要的http://前缀。使用strip()、replace()等字符串方法进行清洗是良好的习惯。

7. 总结

本教程演示了如何使用requests和BeautifulSoup库,通过“按记录迭代”和“条件式提取”的策略,有效地解决了网页抓取中因元素缺失导致的数据错位问题。通过将每个记录的名称和其对应的(可能缺失的)网站信息作为一个整体进行处理,并利用numpy.nan填充缺失值,我们能够构建一个健壮且输出数据准确对齐的抓取脚本。掌握这些技巧对于任何需要从非结构化网页数据中提取结构化信息的任务都至关重要。

以上就是使用BeautifulSoup处理缺失元素:构建健壮的网页数据抓取教程的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号