
Pandas是一个强大的数据分析库,但其性能表现很大程度上取决于如何使用它。当处理大型数据集时,常见的性能瓶颈往往出现在尝试对DataFrame进行行级迭代和操作时。虽然Python的for循环和Pandas的apply(axis=1)提供了灵活性,但它们通常不是最高效的解决方案,因为它们本质上是基于Python解释器的循环,而非Pandas底层C语言实现的优化操作。
考虑以下场景:我们需要根据df_RoadSegments中的起点ID(RoadSegmentOrigin)从df_Stops中查找对应的经纬度信息,并将其整合到df_RoadSegments中。原始的实现方式可能如下:
import pandas as pd
import io
# 模拟数据加载
road_segments_data = """RoadSegmentOrigin,RoadSegmentDest,trip_id,planned_duration
AREI2,JD4,107_1_D_1,32
JD4,PNG4,107_1_D_1,55
"""
stops_data = """stop_id,stop_code,stop_name,stop_lat,stop_lon,zone_id,stop_url
AREI2,AREI2,AREIAS,41.1591084955401,-8.55577748652738,PRT3,http://www.stcp.pt/pt/viajar/paragens/?t=detalhe¶gem=AREI2
JD4,JD4,JOÃO DE DEUS,41.1578666104126,-8.55802717966919,PRT3,http://www.stcp.pt/pt/viajar/paragens/?t=detalhe¶gem=JD4
PNG4,PNG4,PORTO NORTE,41.1600000000000,-8.56000000000000,PRT3,http://www.stcp.pt/pt/viajar/paragens/?t=detalhe¶gem=PNG4
"""
df_RoadSegments = pd.read_csv(io.StringIO(road_segments_data))
df_Stops = pd.read_csv(io.StringIO(stops_data))
# 辅助函数:根据stop_id查找经纬度
def getstopscoordinates(df_stops, stop_id):
df_stop_id = df_stops.loc[df_stops["stop_id"] == stop_id]
if not df_stop_id.empty:
stop_id_lat = str(df_stop_id["stop_lat"].values[0])
stop_id_lon = str(df_stop_id["stop_lon"].values[0])
stop_id_coord = stop_id_lat + "," + stop_id_lon
return stop_id_coord
return None # 如果找不到,返回None
# 原始的慢速处理方式
# 注意:此代码段仅用于说明问题,不建议在实际生产环境中使用
# for row in df_RoadSegments.head(2).itertuples():
# # 这里的apply(axis=1)会在df_RoadSegments的每一行上重复调用getstopscoordinates
# # 并且getstopscoordinates内部又进行了DataFrame查询,效率极低
# df_RoadSegments["OriginCoordinates"] = df_RoadSegments.apply(
# lambda x: getstopscoordinates(df_Stops, x["RoadSegmentOrigin"]), axis=1
# )
# print(df_RoadSegments)上述代码的性能问题在于:
Pandas提供了强大的向量化操作,能够显著提升数据处理效率。对于这种跨DataFrame的数据查找和整合需求,merge()函数是远比循环和apply(axis=1)更优的选择。
核心思想是:
首先,我们可以在df_Stops中预先计算出所需的lat_long字符串。这样,在后续的合并操作中,我们直接使用这个预计算好的列,避免了在合并过程中重复进行字符串拼接。
# 预处理df_Stops,生成lat_long列
df_Stops["lat_long"] = df_Stops[["stop_lat", "stop_lon"]].apply(
lambda x: ','.join(map(str, x)), axis=1
)
print("预处理后的df_Stops(部分列):")
print(df_Stops[["stop_id", "lat_long"]].head())这里对df_Stops使用apply(axis=1)来拼接字符串,虽然也是行级操作,但它只在df_Stops这个相对较小的查找表上执行一次,并且只涉及两个列的简单操作,其性能开销远小于在主循环中反复对大DataFrame进行apply。
有了预处理好的df_Stops,我们可以使用pd.merge()函数将其与df_RoadSegments连接起来。merge()函数类似于SQL中的JOIN操作,它能够根据一个或多个共同的键将两个DataFrame的行进行匹配。
# 使用merge()连接df_RoadSegments和df_Stops
df_RoadSegments_merged = df_RoadSegments.merge(
df_Stops[["stop_id", "lat_long"]], # 只选择需要的列进行合并
left_on="RoadSegmentOrigin", # df_RoadSegments中用于匹配的列
right_on="stop_id", # df_Stops中用于匹配的列
how="left" # 左连接,保留df_RoadSegments的所有行
)
# 重命名合并后的列以更清晰地表示其含义
df_RoadSegments_merged = df_RoadSegments_merged.rename(columns={"lat_long": "OriginCoordinates"})
print("\n合并后的df_RoadSegments:")
print(df_RoadSegments_merged)代码解析:
采用merge()而非循环和apply(axis=1)具有显著的优势:
总结与注意事项:
通过理解Pandas的底层机制并采纳向量化操作,我们可以编写出更高效、更易维护的数据处理代码,从而充分发挥Pandas的强大功能。
以上就是优化Pandas数据处理:告别慢速循环,拥抱高效Merge的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号