
在python中处理大量计算密集型任务,尤其是涉及大型numpy数组的操作时,我们通常会考虑使用多进程或多线程来加速。tqdm.contrib.concurrent库提供了方便的process_map和thread_map函数,结合进度条功能,看似是理想的选择。然而,在某些特定场景下,尤其是当每个任务都涉及处理大型numpy数组时,这些工具的性能可能不升反降,甚至比单线程循环更慢。本文将深入分析这一现象背后的原因,并提供一种有效的解决方案。
当我们尝试使用process_map或multiprocessing.Pool.map对一个包含大型NumPy数组的迭代器进行并行处理时,一个主要的性能瓶颈往往是进程间通信(IPC)中的数据序列化和反序列化开销。
为了直观地展示上述问题,我们创建一个模拟NumPy重计算的场景。calc函数模拟了一个对NumPy矩阵进行多次均值和标准差计算的重任务。
import time
import numpy as np
from tqdm.auto import tqdm
from tqdm.contrib.concurrent import process_map, thread_map
# 模拟生成大型数据集
def mydataset(size, length):
for ii in range(length):
yield np.random.rand(*size)
# 模拟重计算函数
def calc(mat):
# 模拟一些重计算,例如对大型矩阵进行多次统计分析
for ii in range(1000):
avg = np.mean(mat)
std = np.std(mat)
return avg, std
def main_problematic_example():
# 生成100个500x500的随机矩阵
ds = list(mydataset((500, 500), 100))
print("--- 原始方法性能测试 ---")
# 1. 单线程for循环
t0 = time.time()
res1 = []
for mat in tqdm(ds, desc="For Loop"):
res1.append(calc(mat))
print(f'单线程for循环: {time.time() - t0:.2f}s')
# 2. 原生map函数
t0 = time.time()
res2 = list(map(calc, tqdm(ds, desc="Native Map")))
print(f'原生map函数: {time.time() - t0:.2f}s')
# 3. tqdm的process_map
t0 = time.time()
res3 = process_map(calc, ds, desc="Process Map")
print(f'process_map: {time.time() - t0:.2f}s')
# 4. tqdm的thread_map
t0 = time.time()
res4 = thread_map(calc, ds, desc="Thread Map")
print(f'thread_map: {time.time() - t0:.2f}s')
if __name__ == '__main__':
main_problematic_example()运行结果示例(可能因环境而异,但趋势一致):
For Loop: 100%|████████████████████████████████████████████| 100/100 [00:51<00:00, 1.93it/s] 单线程for循环: 51.88s Native Map: 100%|████████████████████████████████████████████| 100/100 [00:52<00:00, 1.91it/s] 原生map函数: 52.49s Process Map: 100%|████████████████████████████████████████████| 100/100 [01:10<00:00, 1.41it/s] process_map: 71.06s Thread Map: 100%|████████████████████████████████████████████| 100/100 [00:41<00:00, 2.39it/s] thread_map: 42.04s
从上述结果可以看出,process_map明显慢于单线程循环,而thread_map虽然略有加速,但远未达到理想的多核并行效果。这验证了我们对数据拷贝开销和GIL影响的分析。
立即学习“Python免费学习笔记(深入)”;
为了解决多进程间数据拷贝的性能瓶颈,我们可以使用multiprocessing.Manager来创建共享数据结构。Manager会启动一个单独的服务器进程,管理这些共享对象,其他进程通过代理对象与管理器通信,从而避免了每次任务执行时都进行大规模的数据拷贝。数据只需要在初始化时拷贝一次到管理器进程的内存中。
下面是使用multiprocessing.Manager进行优化的代码示例:
import time
import numpy as np
from multiprocessing import Pool, Manager
# 模拟生成大型数据集
def mydataset(size, length):
for ii in range(length):
yield np.random.rand(*size)
# 优化的计算函数:通过索引访问共享数据
def calc_optimized(idx, mat_list):
# 模拟一些重计算
for ii in range(1000):
avg = np.mean(mat_list[idx]) # 从共享列表中获取矩阵
std = np.std(mat_list[idx])
return avg, std
def main_optimized_example():
ds = list(mydataset((500, 500), 100))
print("\n--- 优化后方法性能测试 ---")
# 创建一个进程池,通常设置为CPU核心数
# 为了演示效果,这里使用4个核心
num_cores = 4
mypool = Pool(num_cores)
# 创建一个Manager实例
manager = Manager()
# 将原始数据集转换为Manager管理的共享列表
# 数据在此处被拷贝到Manager进程的内存中一次
mylist = manager.list(ds)
t0 = time.time()
# 使用starmap,因为它允许我们将多个参数传递给工作函数
# 这里传递的是数据的索引和共享列表本身
res_optimized = mypool.starmap(calc_optimized, zip(range(len(ds)), [mylist] * len(ds)))
print(f"Manager共享内存方式: {time.time() - t0:.2f}s")
mypool.close()
mypool.join()
manager.shutdown() # 关闭管理器
if __name__ == "__main__":
main_optimized_example()运行结果示例:
--- 优化后方法性能测试 --- Manager共享内存方式: 1.94s
通过引入multiprocessing.Manager和共享列表,我们将整个计算时间从71秒(process_map)或51秒(单线程)显著缩短到了不到2秒。这表明,避免重复的数据拷贝是解决NumPy重计算并行性能瓶颈的关键。
在Python中对NumPy数组进行大量计算时,实现有效的并行加速需要特别注意数据在进程间的传递方式。tqdm.contrib.concurrent的process_map虽然方便,但在处理大型NumPy数组时,由于频繁的数据序列化和反序列化开销,其性能可能不尽人意。通过利用multiprocessing.Manager创建共享数据结构,我们可以有效地避免重复的数据拷贝,从而显著提升计算效率,实现真正的多核并行加速。理解并正确应用数据共享策略,是优化Python中NumPy密集型并行任务的关键。
以上就是Python NumPy重计算的并行优化:利用数据共享避免性能瓶颈的详细内容,更多请关注php中文网其它相关文章!
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号