如何在PyTorch中加载预训练模型 PyTorch模型加载与微调实践

P粉602998670
发布: 2025-08-02 17:03:01
原创
828人浏览过

在pytorch中加载预训练模型的关键在于理解模型结构与权重的匹配关系。1. 对于resnet、vgg等常见模型,可通过torchvision.models直接加载预训练版本,使用weights参数指定权重类型更推荐;2. 自定义模型需手动加载权重,创建模型后使用load_state_dict并设置strict=false忽略不匹配部分;3. 微调时可冻结部分层,通过设置requires_grad=false锁定参数;4. 推荐仅保存和加载模型状态字典以提高灵活性,并注意设备一致性问题。掌握这些要点即可应对大多数情况。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如何在PyTorch中加载预训练模型 PyTorch模型加载与微调实践

在PyTorch中加载预训练模型其实并不复杂,关键在于理解模型结构和权重之间的关系。如果你用的是常见的模型架构(比如ResNet、VGG等),通常可以直接从

torchvision.models
登录后复制
中获取对应的预训练版本。而对于自定义模型或部分修改后的模型,就需要更细致地处理权重加载方式。

如何在PyTorch中加载预训练模型 PyTorch模型加载与微调实践

使用torchvision快速加载常见预训练模型

对于像ResNet、AlexNet这类经典模型,推荐使用

torchvision.models
登录后复制
中的接口。这些模型默认提供是否加载预训练权重的选项。

如何在PyTorch中加载预训练模型 PyTorch模型加载与微调实践

例如:

import torchvision.models as models

model = models.resnet18(pretrained=True)
登录后复制

这样一行代码就能加载一个带预训练权重的ResNet18模型。如果你想换成其他变种,比如

resnet50
登录后复制
或者
vgg16
登录后复制
,只需要替换名字即可。

如何在PyTorch中加载预训练模型 PyTorch模型加载与微调实践

需要注意的是:从 PyTorch 1.8 开始,

pretrained
登录后复制
参数被逐步弃用,取而代之的是通过
weights
登录后复制
参数指定具体权重类型。比如:

model = models.resnet18(weights=models.ResNet18_Weights.IMAGENET1K_V1)
登录后复制

这种方式更清晰,也方便你选择不同来源的预训练权重。

自定义模型加载预训练权重

如果你对模型结构做了改动,比如改了最后一层分类器的输出维度,就不能直接使用

pretrained=True
登录后复制
,而是需要手动加载权重。

一般做法是先创建你的模型结构,然后加载原始权重文件,并忽略不匹配的部分。

步骤如下:

  • 创建模型结构
  • 加载预训练权重字典
  • 使用
    load_state_dict
    登录后复制
    并设置
    strict=False
    登录后复制

示例代码:

可图大模型
可图大模型

可图大模型(Kolors)是快手大模型团队自研打造的文生图AI大模型

可图大模型 32
查看详情 可图大模型
model = MyModifiedResNet()
pretrained_dict = torch.load('resnet18.pth')
model.load_state_dict(pretrained_dict, strict=False)
登录后复制

这里的关键是确保大部分层的名字和结构都能对应上,否则会报错。如果模型结构差异太大,可能需要手动映射某些层。

微调时冻结部分层

微调模型时,有时候我们只想训练最后几层,而保持前面的特征提取层不变。这时候可以通过设置

requires_grad
登录后复制
来冻结部分参数。

以ResNet为例,假设你想冻结所有层,只训练最后的全连接层:

for param in model.parameters():
    param.requires_grad = False

# 只训练最后的fc层
model.fc = nn.Linear(512, new_num_classes)
登录后复制

这样,在反向传播过程中,只有

model.fc
登录后复制
的参数会被更新。

当然,也可以有选择地冻结某些层,而不是全部。比如只冻结前几层卷积层,保留后面层可训练。

权重保存与加载格式注意事项

PyTorch模型保存的常见方式有两种:

  • 保存整个模型:
    torch.save(model, PATH)
    登录后复制
  • 仅保存模型状态字典:
    torch.save(model.state_dict(), PATH)
    登录后复制

推荐使用第二种方式,因为它更灵活,特别是在模型类定义发生变化后仍然能加载权重。

加载时也要注意设备问题。如果保存的是GPU上的模型,而在CPU环境下加载,需要加上

map_location='cpu'
登录后复制

model.load_state_dict(torch.load(PATH, map_location='cpu'))
登录后复制

否则可能会遇到设备不匹配的问题。


基本上就这些操作了。加载预训练模型本身不难,但要注意结构匹配、设备一致性和是否需要冻结部分层。掌握这几个点,大多数情况都能应对。

以上就是如何在PyTorch中加载预训练模型 PyTorch模型加载与微调实践的详细内容,更多请关注php中文网其它相关文章!

相关标签:
最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门推荐
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号