解决 Pandas DataFrame 高度碎片化警告:高效创建多列的策略

碧海醫心
发布: 2025-11-27 10:54:26
原创
249人浏览过

解决 Pandas DataFrame 高度碎片化警告:高效创建多列的策略

当在 pandas dataframe 中通过循环或重复赋值创建大量新列时,可能会遇到 `performancewarning: dataframe is highly fragmented` 警告。此警告表明 dataframe 内存布局变得碎片化,导致性能下降。本文将深入探讨此警告的成因,并提供使用 `pd.concat` 方法高效、批量创建新列的专业解决方案,从而避免碎片化并提升数据处理效率。

理解 DataFrame 碎片化警告

PerformanceWarning: DataFrame is highly fragmented 警告通常在您对现有 DataFrame 反复执行列插入操作时出现。在 Pandas 中,DataFrame 的内存布局通常是为连续性访问优化的。当您使用 df['new_col'] = ... 这种方式逐个添加大量新列时,Pandas 可能会在底层执行多次内存重新分配操作。每次重新分配都可能导致数据在内存中的存储不再连续,从而形成“碎片”。

这种碎片化现象会带来两个主要问题:

  1. 性能下降: 内存碎片化会增加数据访问的开销,因为处理器需要花费更多时间来查找和读取非连续存储的数据块。这在处理大型 DataFrame 时尤为明显。
  2. 内存效率降低: 碎片化的内存可能导致实际使用的内存量高于理论值,因为一些小的空闲块可能无法被有效利用。

考虑一个常见场景:从一个包含长字符串的列中,根据不同位置切片并生成数百甚至近千个新列。以下是导致警告的典型代码模式:

import pandas as pd
import numpy as np
import string

# 模拟一个包含长字符串的DataFrame
np.random.seed(0)
df_fragmented = pd.DataFrame({
    "long_string": ["".join(np.random.choice(
        [*string.printable[:62]], size=5000)) for _ in range(10000)]
})

def parse_long_string_fragmented(df):
    # 假设需要从 long_string 中切片出 972 个新列
    # 这是一个简化示例,实际可能需要更多列
    df['a001'] = df['long_string'].str[0:2]
    df['a002'] = df['long_string'].str[2:4]
    df['a003'] = df['long_string'].str[4:13]
    # ... 更多类似的列赋值操作,直到 a972
    df['a972'] = df['long_string'].str[4994:]
    return df

# 调用此函数时,会触发 PerformanceWarning
# result_fragmented = parse_long_string_fragmented(df_fragmented.copy())
登录后复制

上述代码中,每次 df['aXXX'] = ... 都会尝试在现有 DataFrame 中插入新列。当列数非常多时,这种重复的插入操作会显著增加 DataFrame 的碎片化程度,并最终触发 PerformanceWarning。

解决方案:使用 pd.concat 批量创建新列

为了避免 DataFrame 碎片化并提高性能,最佳实践是批量创建所有新列,然后一次性将它们添加到原始 DataFrame 中。pd.concat 函数是实现这一目标的高效工具

Medeo
Medeo

AI视频生成工具

Medeo 191
查看详情 Medeo

核心思想是:

  1. 预先定义所有需要切片的起始和结束位置。
  2. 利用 Pandas 的字符串切片功能 (.str[start:end]),为每个新列生成一个 Series。
  3. 将所有这些 Series 收集起来,使用 pd.concat(..., axis=1) 将它们合并成一个新的 DataFrame。
  4. 最后,使用 df.join() 或 pd.concat 将这个包含所有新列的 DataFrame 与原始 DataFrame 合并。

以下是使用 pd.concat 解决上述问题的具体实现:

import pandas as pd
import numpy as np
import string

# 1. 准备示例数据
np.random.seed(0)
df = pd.DataFrame({
    "long_string": ["".join(np.random.choice(
        [*string.printable[:62]], size=5000)) for _ in range(10000)]
})

# 2. 定义切片规则 (使用字典更具可读性)
# 这是一个包含 972 个切片规则的字典
slices_mapper = {f"a{i+1:03d}": (i*2, (i+1)*2) for i in range(249)} # 简化到249个,避免过长的输出
# 假设实际场景中,最后几列可能不是固定长度,例如:
slices_mapper["a250"] = (498, 500) # 模拟最后几列
slices_mapper["a251"] = (500, None) # 从500到字符串末尾

# 3. 定义解析函数,使用 pd.concat
def parse_long_string_optimized(df_input, mapper):
    """
    高效解析长字符串列并创建多个新列,避免 DataFrame 碎片化。

    Args:
        df_input (pd.DataFrame): 包含 'long_string' 列的 DataFrame。
        mapper (dict): 字典,键为新列名,值为元组 (start, end) 表示切片范围。

    Returns:
        pd.DataFrame: 包含原始列和所有新列的 DataFrame。
    """
    # 使用字典推导式为每个新列生成一个 Series,然后通过 pd.concat 沿列方向合并
    new_cols_df = pd.concat(
        {
            col_name: df_input["long_string"].str[start:end]
            for col_name, (start, end) in mapper.items()
        },
        axis=1 # 沿列方向合并
    )

    # 将新生成的 DataFrame 与原始 DataFrame 进行连接
    return df_input.join(new_cols_df)

# 4. 调用优化后的函数
result_optimized = parse_long_string_optimized(df, slices_mapper)

# 打印结果 DataFrame 的信息
print(result_optimized.head())
print(f"\nDataFrame 形状: {result_optimized.shape}")
print(f"DataFrame 列数: {len(result_optimized.columns)}")
登录后复制

代码解释:

  • slices_mapper: 这是一个字典,其键是您希望创建的新列的名称(例如 a001),值是一个元组 (start, end),表示从 long_string 列中切片的起始和结束索引。使用 None 作为结束索引表示切片到字符串末尾。
  • 字典推导式 for col_name, (start, end) in mapper.items(): 这会遍历 slices_mapper 字典中的每一个键值对。对于每个键值对,它会从 df_input["long_string"] 中使用 .str[start:end] 方法提取相应的子字符串,生成一个新的 Pandas Series。
  • pd.concat({...}, axis=1):
    • 花括号 {...} 中的内容创建了一个字典,其中键是新列名,值是对应的 Series。
    • pd.concat 接收一个 Series 或 DataFrame 对象的列表或字典。当传入字典时,字典的键将成为新 DataFrame 的列名。
    • axis=1 参数指示 pd.concat 沿着列方向(水平方向)进行连接,将所有的 Series 组合成一个全新的 DataFrame new_cols_df。
  • df_input.join(new_cols_df): 最后,使用 df.join() 方法将原始 DataFrame df_input 与包含所有新列的 new_cols_df 进行合并。join 方法默认基于索引进行合并,这里两个 DataFrame 的索引是匹配的,因此可以无缝连接。

总结与最佳实践

  • 避免逐列添加: 当需要创建大量新列时,应避免使用 df['new_col'] = ... 这种逐列赋值的方式,因为它会导致 DataFrame 碎片化和性能下降。
  • 优先批量操作: 采用 pd.concat、df.assign() (适用于少量列) 或其他批量操作来一次性创建和添加多列。
  • pd.concat 的优势: 适用于从现有列派生出大量新列的场景,它通过构建一个全新的、非碎片化的 DataFrame 来避免性能问题。
  • 数据结构设计: 在设计数据处理流程时,预先考虑如何高效地生成和整合新数据,以减少不必要的中间操作和内存重分配。
  • 必要时使用 df.copy(): 如果一个 DataFrame 已经变得高度碎片化,并且您需要对其进行大量后续操作,可以考虑使用 new_df = old_df.copy() 来创建一个全新的、内存连续的副本,从而“整理”DataFrame 的内存。但这通常是亡羊补牢,更好的方法是在一开始就避免碎片化。

通过采纳 pd.concat 这种批量处理策略,您可以显著提升 Pandas 数据处理的效率和稳定性,尤其是在处理大规模数据集和复杂特征工程任务时。

以上就是解决 Pandas DataFrame 高度碎片化警告:高效创建多列的策略的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号