
pytorch为了高效地在不同进程间共享张量数据,利用了操作系统提供的共享内存机制。当一个张量被创建并设置为可共享时,其底层数据会被存储在共享内存区域。在linux系统中,这通常表现为在/dev/shm(共享内存文件系统)下创建以torch_shm_为前缀的临时文件或目录。
当使用torch.multiprocessing模块(特别是Pool)进行并行计算时,如果子进程返回的张量或包含张量的对象需要被主进程接收,PyTorch会尝试通过共享内存来避免昂贵的数据拷贝。torch.multiprocessing.set_sharing_strategy("file_system")策略指示PyTorch使用文件系统作为共享内存的后端,这对于处理大量张量或避免文件描述符限制非常有用,但同时也增加了对/dev/shm空间的需求。
在并行处理大量数据时,开发者可能会遇到PyTorch多进程导致共享内存溢出的问题。具体表现为,当处理的数据点达到一定数量后,程序因无法分配更多共享内存而崩溃。通过检查/dev/shm目录,会发现大量未被清理的torch_shm_文件持续堆积。即使尝试了分块处理、为每个分块创建新的Pool对象以及显式删除返回结果,问题可能依然存在。
以下是一个典型的代码示例,展示了可能导致共享内存溢出的场景:
import torch
import torch.multiprocessing as mp
from glob import glob
import os
import time
# 由于操作系统文件描述符限制,通常需要使用 "file_system" 策略
mp.set_sharing_strategy("file_system")
def processData(fname):
"""
模拟数据处理函数,从文件中读取数据并生成一个张量列表。
这里的张量会被共享给主进程。
"""
# 实际场景中,这里会进行复杂的张量操作
# 示例:创建一个包含5个随机张量的列表
return [torch.randn(100, 100, dtype=torch.float32) for _ in range(5)]
if __name__ == "__main__":
# 设置启动方法为 'spawn',确保跨平台兼容性和安全性
# force=True 可以在脚本多次运行时避免重复设置的错误
mp.set_start_method("spawn", force=True)
# 替换为实际的数据目录,例如创建一个虚拟目录和文件
# for i in range(20000):
# with open(f"/tmp/data/file_{i}.txt", "w") as f:
# f.write(f"data for file {i}")
datadir = "/path/to/your/data/directory" # 请替换为实际路径
processedData = []
print(f"程序启动时 /dev/shm 中的 torch_shm_ 文件数量: {len([f for f in os.listdir('/dev/shm') if f.startswith('torch_shm_')])}")
# 创建一个进程池
with mp.Pool(processes=8) as pool: # 使用 with 语句确保进程池被正确关闭
file_paths = glob(datadir + "/*.txt")
print(f"发现 {len(file_paths)} 个文件待处理。")
# 使用 imap_unordered 异步获取结果
for i, result_list in enumerate(pool.imap_unordered(processData, file_paths)):
processedData.extend(result_list)
# 定期检查 /dev/shm 状态
if (i + 1) % 100 == 0:
shm_files_count = len([f for f in os.listdir('/dev/shm') if f.startswith('torch_shm_')])
print(f"已处理 {i+1} 个文件,当前 /dev/shm 中的 torch_shm_ 文件数量: {shm_files_count}")
# 可以在这里添加检查,如果文件数量异常,则提前退出或记录警告
# 进程池在 with 语句结束后会自动 close 和 join
shm_files_count_final = len([f for f in os.listdir('/dev/shm') if f.startswith('torch_shm_')])
print(f"所有文件处理完毕后 /dev/shm 中的 torch_shm_ 文件数量: {shm_files_count_final}")
# 此时 processedData 列表中包含了所有子进程返回的张量
# 如果这些张量不被及时清理,其对应的共享内存区域将持续占用
# 显式解除引用,有助于垃圾回收
del processedData
# 强制进行Python垃圾回收,但这不直接作用于共享内存文件
import gc
gc.collect()
# 再次检查,看是否有变化 (通常不会立即清理共享内存文件)
shm_files_count_after_del = len([f for f in os.listdir('/dev/shm') if f.startswith('torch_shm_')])
print(f"显式删除引用后 /dev/shm 中的 torch_shm_ 文件数量: {shm_files_count_after_del}")尽管代码中使用了mp.Pool的with语句(或显式的pool.close()和pool.join())来确保进程池被正确关闭,但共享内存文件可能并未及时清理。这通常是因为PyTorch的共享内存管理器在某些情况下未能及时回收资源,或者主进程仍然持有对这些共享内存区域的隐式引用。
要诊断共享内存溢出问题,最直接且有效的方法是监控/dev/shm目录。在Linux终端中,可以使用以下命令:
ls -l /dev/shm | grep torch_shm_ | wc -l
该命令会统计当前/dev/shm目录下以torch_shm_开头的文件的数量。在程序运行期间定期执行此命令,可以观察文件数量是否持续增长。如果文件数量快速增加且不下降,则强烈表明存在共享内存泄漏。
此外,还可以使用df -h /dev/shm命令来查看/dev/shm文件系统的实际使用情况,判断是否接近满载。
当遇到PyTorch多进程共享内存溢出时,可以考虑以下解决方案,并注意其局限性和潜在风险。
最直接有效的临时解决方案是重启操作系统或计算环境。系统重启会清空/dev/shm目录,从而释放所有被占用的共享内存资源。
理论上,可以通过手动删除/dev/shm目录下的torch_shm_文件来释放空间。例如,使用以下命令:
sudo rm -rf /dev/shm/torch_shm_*
为了从根本上解决或缓解PyTorch多进程共享内存溢出问题,需要深入理解并优化共享内存的使用方式。
减少共享张量数量: 仔细检查processData函数返回的数据。如果返回的是大量小型张量列表,每个张量都可能在共享内存中创建独立的区域。考虑是否可以:
显式管理张量生命周期: 尽管PyTorch的共享内存管理器会尝试清理,但如果主进程对子进程返回的张量(或包含它们的列表)保持引用,这些共享内存区域就不会被释放。确保在不再需要时,显式地解除对这些张量的引用,让Python的垃圾回收机制有机会清理它们。例如,可以定期将processedData列表中的数据持久化到磁盘,然后清空列表,或者在处理完一批数据后,使用del关键字显式删除不再需要的张量引用。
# 示例:定期清理 processedData 列表
batch_size = 1000
for i, result_list in enumerate(pool.imap_unordered(processData, file_paths)):
processedData.extend(result_list)
if (i + 1) % batch_size == 0:
# 在这里可以将 processedData 写入磁盘或进行其他聚合操作
# 然后清空列表,解除对张量的引用
del processedData[:] # 清空列表内容
print(f"已处理 {i+1} 个文件,并清空 processedData 列表。")以上就是PyTorch多进程共享内存溢出:深度解析与管理策略的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号