ConvMixer:Patches are all you need?

P粉084495128
发布: 2025-07-18 10:35:47
原创
696人浏览过
ConvMixer是基于卷积层进行Mixer操作的模型,结构简单却精度不错。它与MLP Mixer类似,通过交替混合channel和token维度信息提取图像特征,但用卷积替代MLP。其用逐通道卷积提取token信息,1x1卷积提取channel信息,官方提供三个预训练模型,在ImageNet 1k验证集上表现良好,还可从头或微调训练。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

convmixer:patches are all you need? - php中文网

引入

  • 之前介绍了 MLP-Mixer,【MLP-Mixer:MLP is all you need ?】
  • 那么除了 MLP 其他的基础网络层可不可以也进行 Mixer 操作呢?
  • 结论当然也是可以的,所以这次就来介绍一个最近新鲜出炉的工作 ConvMixer。
  • 顾名思义 ConvMixer 就是使用卷积层进行 Mixer 操作来构建的一个模型
  • 结构上也非常简单,但是同样能够实现一个不错的精度表现

相关资料

  • 论文:"Patches Are All You Need?"
  • 官方代码:tmp-iclr/convmixer

模型架构

  • ConvMixer 与 MLP Mixer 模型一样模型的结构都十分简单

  • 同样是通过 channel 和 token 两个维度的信息进行交替混合,实现图像特征的有效提取

  • 只不过 ConvMixer 使用的基础网络层为卷积,而 MLP Mixer 使用的是 MLP(多层感知机)

  • 在 ConvMixer 模型中:

    • 使用 Depthwise Convolution(逐通道卷积) 来提取 token 间的相关信息,类似 MLP Mixer 中的 token-mixing MLP

    • 使用 Pointwise Convolution(1x1 卷积) 来提取 channel 间的相关信息,类似 MLP Mixer 中的 channel-mixing MLP

  • 然后将两种卷积交替执行,混合两个维度的信息

  • 模型的大致架构如下图所示:

    ConvMixer:Patches are all you need? - php中文网

    可爱的 happy birthday to you 字母矢量素材(AI+EPS+PNG)
    可爱的 happy birthday to you 字母矢量素材(AI+EPS+PNG)

    这是一款可爱的 happy birthday to you 字母矢量素材,提供了 AI 和 EPS 和免扣 PNG 等格式,含 JPG 预览图。

    可爱的 happy birthday to you 字母矢量素材(AI+EPS+PNG) 8
    查看详情 可爱的 happy birthday to you 字母矢量素材(AI+EPS+PNG)

代码实现

  • 模型的代码实现其实在上面的结构图中已经有出现了,不过由于过于精简可能比较不好理解
  • 下面给出官方代码中的另一种常规一些的实现方式,结构比较清晰,并且手动添加了一些注释,相对比较好理解

模型搭建

In [1]
import paddle.nn as nnclass Residual(nn.Layer):
    # Residual Block(残差层)
    # y = f(x) + x
    def __init__(self, fn):
        super().__init__()
        self.fn = fn    def forward(self, x):
        return self.fn(x) + xdef ConvMixer(dim, depth, kernel_size=9, patch_size=7, act=nn.GELU, n_classes=1000):
    # ConvMixer Model
    # dim: hidden channal dim(ConvMixer 网络的隐藏层通道数)
    # depth: num of ConvMixer Block(网络层数也是其中 ConvMixer 层的数量)
    # kernel_size: kernel_size of Convolution in ConvMixer Block(ConvMixer 层中的卷积层的卷积核大小)
    # patch_size: patch_size in Patch Embedding (Patch Embedding 时 Patch 的大小)
    # act: activate function(激活函数)
    # n_classes: num of classes(输出的类别数量)

    return nn.Sequential(        # Patch Embedding
        # Conv(kernel_size = stride = patch_size) + GELU + BN
        # 使用一个卷积核大小和步长都等于 Patch 大小的卷积层进行输入图像 Embedding 的操作
        # 并连接一个 GELU 激活函数和 BN 批归一化层
        nn.Conv2D(3, dim, kernel_size=patch_size, stride=patch_size),
        act(),
        nn.BatchNorm2D(dim),        # ConvMixer Block x N(depth)
        # N(depth) 个 ConvMixer 层
        *[nn.Sequential(            # Residual Block + Depthwise Convolution + GELU + BN
            # 逐通道卷积提取 Token 之间的信息
            # 并连接一个 GELU 激活函数和 BN 批归一化层
            # 最后与原输入进行一个残差连接
            Residual(nn.Sequential(
                nn.Conv2D(dim, dim, kernel_size, groups=dim, padding="same"),
                act(),
                nn.BatchNorm2D(dim)
            )),            # Pointwise Convolution + GELU + BN
            # 1x1 卷积提取 Channel 之间的信息
            # 并连接一个 GELU 激活函数和 BN 批归一化层
            nn.Conv2D(dim, dim, kernel_size=1),
            act(),
            nn.BatchNorm2D(dim)
        ) for i in range(depth)],        # Output Layers
        nn.AdaptiveAvgPool2D((1,1)),
        nn.Flatten(),
        nn.Linear(dim, n_classes)
    )
登录后复制

预设模型

  • 目前官方提供了如下三个预训练模型的参数文件
In [2]
import paddledef convmixer_1536_20(pretrained=False, **kwargs):
    model = ConvMixer(1536, 20, kernel_size=9, patch_size=7, **kwargs)    if pretrained:
        params = paddle.load('/home/aistudio/data/data111600/convmixer_1536_20_ks9_p7.pdparams')
        model.set_dict(params)    return modeldef convmixer_1024_20(pretrained=False, **kwargs):
    model = ConvMixer(1024, 20, kernel_size=9, patch_size=14, **kwargs)    if pretrained:
        params = paddle.load('/home/aistudio/data/data111600/convmixer_1024_20_ks9_p14.pdparams')
        model.set_dict(params)    return modeldef convmixer_768_32(pretrained=False, **kwargs):
    model = ConvMixer(768, 32, kernel_size=7, patch_size=7, act=nn.ReLU, **kwargs)    if pretrained:
        params = paddle.load('/home/aistudio/data/data111600/convmixer_768_32_ks7_p7_relu.pdparams')
        model.set_dict(params)    return model
登录后复制

模型测试

In [3]
model = convmixer_768_32(pretrained=True)

x = paddle.randn((1, 3, 224, 224))

out = model(x)print(out.shape)

model.eval()

out = model(x)print(out.shape)
登录后复制

精度测试

标称精度

  • ConvMixer 与其他一些先进模型的精度对比:

    ConvMixer:Patches are all you need? - php中文网

  • 具体的精度表现如下表:

    ConvMixer:Patches are all you need? - php中文网

解压数据集

  • 解压 ImageNet 1k 验证集
In [8]
!mkdir data/ILSVRC2012
登录后复制
In [9]
!tar -xf ~/data/data68594/ILSVRC2012_img_val.tar -C ~/data/ILSVRC2012
登录后复制

精度验证

  • 使用 ImageNet 1k 验证集对模型进行精度验证
  • 可以看到结果与官方给出的基本一致
In [4]
import osimport cv2import numpy as npimport paddleimport paddle.vision.transforms as Tfrom PIL import Image# 构建数据集class ILSVRC2012(paddle.io.Dataset):
    def __init__(self, root, label_list, transform, backend='pil'):
        self.transform = transform
        self.root = root
        self.label_list = label_list
        self.backend = backend
        self.load_datas()    def load_datas(self):
        self.imgs = []
        self.labels = []        with open(self.label_list, 'r') as f:            for line in f:
                img, label = line[:-1].split(' ')
                self.imgs.append(os.path.join(self.root, img))
                self.labels.append(int(label))    def __getitem__(self, idx):
        label = self.labels[idx]
        image = self.imgs[idx]        if self.backend=='cv2':
            image = cv2.imread(image)        else:
            image = Image.open(image).convert('RGB')
        image = self.transform(image)        return image.astype('float32'), np.array(label).astype('int64')    def __len__(self):
        return len(self.imgs)


val_transforms = T.Compose([
    T.Resize(int(224 / 0.96), interpolation='bicubic'),
    T.CenterCrop(224),
    T.ToTensor(),
    T.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
])# 配置模型model = convmixer_1536_20(pretrained=True)
model = paddle.Model(model)
model.prepare(metrics=paddle.metric.Accuracy(topk=(1, 5)))# 配置数据集val_dataset = ILSVRC2012('data/ILSVRC2012', transform=val_transforms, label_list='data/data68594/val_list.txt', backend='pil')# 模型验证acc = model.evaluate(val_dataset, batch_size=128, num_workers=0, verbose=1)print(acc)
登录后复制
Eval begin...
step 391/391 [==============================] - acc_top1: 0.8137 - acc_top5: 0.9562 - 3s/step          
Eval samples: 50000
{'acc_top1': 0.81366, 'acc_top5': 0.95616}
登录后复制

模型训练

从头训练

  • 根据论文的模型配置训练一下 CIFAR-10 数据集的 BaseLine:

    ConvMixer:Patches are all you need? - php中文网

  • 由于没有严格对齐各项训练参数,所以训练结果可能应该会有差异

In [ ]
import osimport cv2import numpy as npimport paddleimport paddle.nn as nnimport paddle.vision.transforms as Tfrom paddle.vision.datasets import Cifar10from PIL import Imagefrom paddle.callbacks import EarlyStopping, VisualDL, ModelCheckpoint

train_transforms = T.Compose([
    T.Resize(int(224 / 0.96), interpolation='bicubic'),
    T.RandomCrop(224),
    T.ToTensor(),
    T.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
])
val_transforms = T.Compose([
    T.Resize(int(224 / 0.96), interpolation='bicubic'),
    T.CenterCrop(224),
    T.ToTensor(),
    T.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
])

model = ConvMixer(256, 8)
opt = paddle.optimizer.Adam(learning_rate=1e-5, parameters=model.parameters())
model = paddle.Model(model)
model.prepare(optimizer=opt, loss=nn.CrossEntropyLoss(), metrics=paddle.metric.Accuracy(topk=(1, 5)))

train_dataset = Cifar10(transform=train_transforms, backend='pil', mode='train')
val_dataset = Cifar10(transform=val_transforms, backend='pil', mode='test')

checkpoint = ModelCheckpoint(save_dir='save')

earlystopping = EarlyStopping(monitor='acc_top1',
                                mode='max',
                                patience=3,
                                verbose=1,
                                min_delta=0,
                                baseline=None,
                                save_best_model=True)

vdl = VisualDL('log')

model.fit(train_dataset, val_dataset, batch_size=32, num_workers=0, epochs=10, save_dir='save', callbacks=[checkpoint, earlystopping, vdl], verbose=1)
登录后复制

微调训练

  • 基于预训练模型在 Cifar10 数据集上进行微调训练
In [ ]
import osimport cv2import numpy as npimport paddleimport paddle.nn as nnimport paddle.vision.transforms as Tfrom paddle.vision.datasets import Cifar10from PIL import Imagefrom paddle.callbacks import EarlyStopping, VisualDL, ModelCheckpoint

train_transforms = T.Compose([
    T.Resize(int(224 / 0.96), interpolation='bicubic'),
    T.RandomCrop(224),
    T.ToTensor(),
    T.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
])
val_transforms = T.Compose([
    T.Resize(int(224 / 0.96), interpolation='bicubic'),
    T.CenterCrop(224),
    T.ToTensor(),
    T.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
])

model = convmixer_768_32(n_classes=10, pretrained=True)
opt = paddle.optimizer.Adam(learning_rate=1e-5, parameters=model.parameters())
model = paddle.Model(model)
model.prepare(optimizer=opt, loss=nn.CrossEntropyLoss(), metrics=paddle.metric.Accuracy(topk=(1, 5)))

train_dataset = Cifar10(transform=train_transforms, backend='pil', mode='train')
val_dataset = Cifar10(transform=val_transforms, backend='pil', mode='test')

checkpoint = ModelCheckpoint(save_dir='save')

earlystopping = EarlyStopping(monitor='acc_top1',
                                mode='max',
                                patience=3,
                                verbose=1,
                                min_delta=0,
                                baseline=None,
                                save_best_model=True)

vdl = VisualDL('log')

model.fit(train_dataset, val_dataset, batch_size=32, num_workers=0, epochs=1, save_dir='save', callbacks=[checkpoint, earlystopping, vdl], verbose=1)
登录后复制

以上就是ConvMixer:Patches are all you need?的详细内容,更多请关注php中文网其它相关文章!

相关标签:
最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号