
autogluon是一个强大的自动机器学习库,它能够自动化模型选择、特征工程和超参数调优等任务。为了加速训练过程,尤其是在处理大型数据集时,利用gpu资源至关重要。然而,许多用户在尝试配置gpu时会遇到困扰,即使在代码中明确设置了num_gpus=1,nvidia-smi等工具却显示gpu处于空闲状态。
当用户在TabularPredictor().fit()方法中直接传入num_gpus=1时,例如:
import pandas as pd
from autogluon.tabular import TabularPredictor
# 假设df是您的训练数据
# df = pd.read_csv("/content/autogluon train.csv")
predictor = TabularPredictor(label='Expense').fit(df, presets='best_quality', verbosity=4, time_limit=70000, num_gpus=1)Autogluon的内部日志可能会显示一些关于GPU资源分配的信息,例如:
Fitting CatBoost_BAG_L1 with 'num_gpus': 1, 'num_cpus': 8
...
Folding resources per job {'num_gpus': 0.5, 'num_cpus': 4}
Fitting with ParallelLocalFoldFittingStrategy (2.0 workers, per: cpus=4, gpus=0, memory=9.85%)尽管日志中提到了'num_gpus': 1,但后续的并行策略中可能会出现gpus=0的指示,或者实际的nvidia-smi输出显示“No running processes found”。这表明num_gpus作为fit方法的顶级参数,可能主要用于指导Autogluon的整体资源调度器,而不是直接将GPU分配给每一个子模型。Autogluon的集成学习和并行训练策略可能会复杂化资源管理,导致GPU资源未能按预期传递给实际执行计算的底层模型。
为了确保Autogluon内部训练的各个模型(如CatBoost、LightGBM、XGBoost等)能够正确利用GPU,需要通过ag_args_fit参数将num_gpus指令传递给这些模型。ag_args_fit是一个字典,允许用户为Autogluon内部训练的每个模型指定额外的拟合参数。
以下是修正后的代码示例:
import pandas as pd
from autogluon.tabular import TabularPredictor
import torch
# 确保PyTorch和CUDA环境已正确安装
# pip install torch==2.0.1+cu118 torchvision==0.15.2+cu118 --index-url https://download.pytorch.org/whl/cu118
# pip install autogluon
# 检查CUDA是否可用
if torch.cuda.is_available():
print(f"CUDA is available. Number of GPUs: {torch.cuda.device_count()}")
else:
print("CUDA is not available. Autogluon will run on CPU.")
# 假设df是您的训练数据,这里创建一个简单的示例DataFrame
data = {
'Feature1': [1, 2, 3, 4, 5, 6, 7, 8, 9, 10],
'Feature2': [10, 9, 8, 7, 6, 5, 4, 3, 2, 1],
'Expense': [100, 120, 110, 130, 140, 150, 160, 170, 180, 190]
}
df = pd.DataFrame(data)
# 正确配置GPU的方法:通过ag_args_fit传递num_gpus
predictor = TabularPredictor(label='Expense').fit(
df,
presets='best_quality',
verbosity=4,
time_limit=70000,
ag_args_fit={'num_gpus': 1} # 将num_gpus参数作为ag_args_fit字典的一部分
)
print("Autogluon training complete.")通过将num_gpus: 1封装在ag_args_fit字典中,Autogluon会尝试将这个参数传递给其内部的各个模型,如CatBoost等,从而指导这些模型在可用时利用GPU进行训练。
CUDA环境与PyTorch安装:
模型支持:
资源分配与并行性:
验证GPU使用:
Autogluon版本:
在Autogluon中实现GPU加速,关键在于理解其内部资源管理机制,并使用ag_args_fit参数将GPU配置准确传递给实际执行计算的底层模型。通过遵循本文提供的正确配置方法和注意事项,用户可以有效利用GPU资源,显著提高Autogluon模型的训练效率。在遇到GPU未被利用的问题时,首先检查PyTorch和CUDA环境,然后重点关注ag_args_fit参数的正确使用,并结合nvidia-smi工具进行验证。
以上就是Autogluon GPU加速配置指南:确保模型有效利用GPU资源的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号