Checkpoint & Loading
1 | # 保存和加载整个模型 |
Initialization
参数的初始化其实就是对参数赋值。而我们需要学习的参数其实都是Variable,它其实是对Tensor的封装,同时提供了data,grad等接口,这就意味着我们可以直接对这些参数进行操作赋值了。这就是PyTorch简洁高效所在。
所以我们可以进行如下操作进行初始化,当然其实有其他的方法,但是这种方法是PyTorch作者所推崇的:
1 | def weight_init(m): |
另一种常见的初始化方法:
1 | nn.init.kaiming_normal(self.W.weight) |
Optimization
局部微调
有时候我们加载了训练模型后,只想调节最后的几层,其他层不训练。其实不训练也就意味着不进行梯度计算,PyTorch中提供的requires_grad使得对训练的控制变得非常简单。
1 | model = torchvision.models.resnet18(pretrained=True) |
全局微调
有时候我们需要对全局都进行finetune,只不过我们希望改换过的层和其他层的学习速率不一样,这时候我们可以把其他层和新层在optimizer中单独赋予不同的学习速率。比如:
1 | ignored_params = list(map(id, model.fc.parameters())) |
其中base_params使用1e-3来训练,model.fc.parameters使用1e-2来训练,momentum是二者共有的。