Pytorch中的model.train()和model.eval()怎么使用

其他教程   发布日期:2025年02月13日   浏览次数:349

本文小编为大家详细介绍“Pytorch中的model.train()和model.eval()怎么使用”,内容详细,步骤清晰,细节处理妥当,希望这篇“Pytorch中的model.train()和model.eval()怎么使用”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。

Pytorch中的model.train() 和 model.eval() 原理与用法

一、两种模式

pytorch可以给我们提供两种方式来切换训练和评估(推断)的模式,分别是:

  1. model.train()
  1. model.eval()

一般用法是:在训练开始之前写上 model.trian() ,在测试时写上 model.eval() 。

二、功能

1. model.train()

在使用 pytorch 构建神经网络的时候,训练过程中会在程序上方添加一句model.train(),作用是 启用 batch normalization 和 dropout

如果模型中有BN层(Batch Normalization)和 Dropout ,需要在 训练时 添加 model.train()。

model.train() 是保证 BN 层能够用到 每一批数据 的均值和方差。对于 Dropout,model.train() 是 随机取一部分 网络连接来训练更新参数。

2. model.eval()

model.eval()的作用是 不启用 Batch Normalization 和 Dropout

如果模型中有 BN 层(Batch Normalization)和 Dropout,在 测试时 添加 model.eval()。

model.eval() 是保证 BN 层能够用 全部训练数据 的均值和方差,即测试过程中要保证 BN 层的均值和方差不变。对于 Dropout,model.eval() 是利用到了 所有 网络连接,即不进行随机舍弃神经元。

为什么测试时要用 model.eval() ?

训练完 train 样本后,生成的模型 model 要用来测试样本了。在 model(test) 之前,需要加上model.eval(),否则的话,有输入数据,即使不训练,它也会改变权值。这是 model 中含有 BN 层和 Dropout 所带来的的性质。

eval() 时,pytorch 会自动把 BN 和 DropOut 固定住,不会取平均,而是用训练好的值。
不然的话,一旦 test 的 batch_size 过小,很容易就会被 BN 层导致生成图片颜色失真极大。
eval() 在非训练的时候是需要加的,没有这句代码,一些网络层的值会发生变动,不会固定,你神经网络每一次生成的结果也是不固定的,生成质量可能好也可能不好。

也就是说,测试过程中使用model.eval(),这时神经网络会 沿用 batch normalization 的值,而并 不使用 dropout

3. 总结与对比

如果模型中有 BN 层(Batch Normalization)和 Dropout,需要在训练时添加 model.train(),在测试时添加 model.eval()。

其中 model.train() 是保证 BN 层用每一批数据的均值和方差,而 model.eval() 是保证 BN 用全部训练数据的均值和方差;

而对于 Dropout,model.train() 是随机取一部分网络连接来训练更新参数,而 model.eval() 是利用到了所有网络连接。

三、Dropout 简介

dropout 常常用于抑制过拟合。

设置Dropout时,torch.nn.Dropout(0.5),这里的 0.5 是指该层(layer)的神经元在每次迭代训练时会随机有 50% 的可能性被丢弃(失活),不参与训练。也就是将上一层数据减少一半传播。

补充:pytroch:model.train()、model.eval()的使用

前言:最近在把两个模型的代码整合到一起,发现有一个模型的代码整合后性能大不如前,但基本上是源码迁移,找了一天原因才发现是因为model.eval()和model.train()放错了位置!!!故在此介绍一下pytroch框架下model.train()、model.eval()的作用和不同点。

model.train、model.eval

1.model.train和model.eval放在代码什么位置

简单的说:

  1. model.train
放在网络训练前,
  1. model.eval
放在网络测试前。

常见的位置摆放错误(也是我犯的错误)有把

  1. model.train()
放在
  1. for epoch in range(epoch):
前面,同时在test或者val(测试或者评估函数)中只放置
  1. model.eval
,这就导致了只有第一个epoch模型训练是使用了
  1. model.train()
,之后的epoch模型训练时都采用
  1. model.eval()
.可能会影响训练好模型的性能。
修改方式:可以在test函数里return前面添加
  1. model.train()
或者把
  1. model.train()
放到
  1. for epoch in range(epoch):
语句下面。
  1. model.train()
  2. for epoch in range(epoch):
  3. for train_batch in train_loader:
  4. ...
  5. zhibiao = test(epoch, test_loader, model)
  6. def test(epoch, test_loader, model):
  7. model.eval()
  8. for test_batch in test_loader:
  9. ...
  10. return zhibiao

2.model.train和model.eval有什么作用

model.train()和model.eval()的区别主要在于Batch NormalizationDropout两层。
如果模型中有BN层(Batch Normalization)和Dropout,在测试时添加model.eval()。model.eval()是保证BN层能够用全部训练数据的均值和方差,即测试过程中要保证BN层的均值和方差不变。对于Dropout,model.eval()是利用到了所有网络连接,即不进行随机舍弃神经元。

下面是model.train 和model.eval的源码,可以看到是利用

  1. self.training = mode
来判断是使用train还是eval。这个参数将传递到一些常用层,比如dropout、BN层等。
  1. def train(self: T, mode: bool = True) -> T:
  2. r"""Sets the module in training mode.
  3. This has any effect only on certain modules. See documentations of
  4. particular modules for details of their behaviors in training/evaluation
  5. mode, if they are affected, e.g. :class:`Dropout`, :class:`BatchNorm`,
  6. etc.
  7. Args:
  8. mode (bool): whether to set training mode (``True``) or evaluation
  9. mode (``False``). Default: ``True``.
  10. Returns:
  11. Module: self
  12. """
  13. self.training = mode
  14. for module in self.children():
  15. module.train(mode)
  16. return self
  17. def eval(self: T) -> T:
  18. r"""Sets the module in evaluation mode.
  19. This has any effect only on certain modules. See documentations of
  20. particular modules for details of their behaviors in training/evaluation
  21. mode, if they are affected, e.g. :class:`Dropout`, :class:`BatchNorm`,
  22. etc.
  23. This is equivalent with :meth:`self.train(False) <torch.nn.Module.train>`.
  24. Returns:
  25. Module: self
  26. """
  27. return self.train(False)

拿dropout层的源码举例,可以看到传递了self.training这个参数。

  1. class Dropout(_DropoutNd):
  2. r"""During training, randomly zeroes some of the elements of the input
  3. tensor with probability :attr:`p` using samples from a Bernoulli
  4. distribution. Each channel will be zeroed out independently on every forward
  5. call.
  6. This has proven to be an effective technique for regularization and
  7. preventing the co-adaptation of neurons as described in the paper
  8. `Improving neural networks by preventing co-adaptation of feature
  9. detectors`_ .
  10. Furthermore, the outputs are scaled by a factor of :math:`frac{1}{1-p}` during
  11. training. This means that during evaluation the module simply computes an
  12. identity function.
  13. Args:
  14. p: probability of an element to be zeroed. Default: 0.5
  15. inplace: If set to ``True``, will do this operation in-place. Default: ``False``
  16. Shape:
  17. - Input: :math:`(*)`. Input can be of any shape
  18. - Output: :math:`(*)`. Output is of the same shape as input
  19. Examples::
  20. >>> m = nn.Dropout(p=0.2)
  21. >>> input = torch.randn(20, 16)
  22. >>> output = m(input)
  23. .. _Improving neural networks by preventing co-adaptation of feature
  24. detectors: https://arxiv.org/abs/1207.0580
  25. """
  26. def forward(self, input: Tensor) -> Tensor:
  27. return F.dropout(input, self.p, self.training, self.inplace)

3.为什么主要区别在于BN层和dropout层

在BN层中,主要涉及到四个需要更新的参数,分别是running_mean,running_var,weight,bias。这里的weight,bias是Pytorch官方实现中的叫法,有点误导人,其实weight就是gamma,bias就是beta。当然它这样的叫法也符合实际的应用场景。其实gamma,beta就是对规范化后的值进行一个加权求和操作running_mean,running_var是当前所求得的所有batch_size下的均值和方差,每经过一个mini_batch我们都会更新running_mean,running_var.为什么要更新它?因为测试的时候,往往是一个一个的图像feed至网络的,如果你在这里对其进行计算均值方差显然是不合理的,所以model.eval()这个语句就是控制BN层中的running_mean,running_std不更新。采用训练结束后的running_mean,running_std来规范化该张图像。

dropout层在训练过程中会随机舍弃一些神经元用来提高性能,但测试过程中如果还是测试的模型还是和训练时一样随机舍弃了一些神经元(不是原模型)这就和测试的本意相违背。因为测试的模型应该是我们最终得到的模型,而这个模型应该是一个完整的模型。

4.BN层和dropout层的作用

既然都讲到这了,不了解一些BN层和dropout层的作用就说不过去了。
BN层的原理和作用建议读一下这篇博客:神经网络中BN层的原理与作用

dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。

大规模的神经网络有两个缺点:费时、容易过拟合

Dropout的出现很好的可以解决这个问题,每次做完dropout,相当于从原始的网络中找到一个更瘦的网络。因而,对于一个有N个节点的神经网络,有了dropout后,就可以看做是2^n个模型的集合了,但此时要训练的参数数目却是不变的,这就解决了费时的问题。

将dropout比作是有性繁殖,将基因随机进行拆分,可以将优秀的基因传下来,并且降低基因之间的联合适应性,使得复杂的大段大段基因联合适应性变成比较小的一个一个小段基因的联合适应性。

dropout也能达到同样的效果,它强迫一个神经单元,和随机挑选出来的其他神经单元共同工作,达到好的效果。消除减弱了神经元节点间的联合适应性,增强了泛化能力。

以上就是Pytorch中的model.train()和model.eval()怎么使用的详细内容,更多关于Pytorch中的model.train()和model.eval()怎么使用的资料请关注九品源码其它相关文章!