乐读窝

深度学习

乐读窝 > 文学理论 > 深度学习

7.8 提前终止

书籍名:《深度学习》    作者:伊恩.古德费洛



当训练有足够的表示能力甚至会过拟合的大模型时,我们经常观察到,训练误差会随着时间的推移逐渐降低但验证集的误差会再次上升。图7.3是这些现象的一个例子,这种现象几乎一定会出现。

图7.3 学习曲线显示负对数似然损失如何随时间变化(表示为遍历数据集的训练迭代数,或轮数(epochs))。在这个例子中,我们在MNIST上训练了一个maxout网络。我们可以观察到训练目标随时间持续减小,但验证集上的平均损失最终会再次增加,形成不对称的U形曲线

这意味着我们只要返回使验证集误差最低的参数设置,就可以获得验证集误差更低的模型(并且因此有希望获得更好的测试误差)。在每次验证集误差有所改善后,我们存储模型参数的副本。当训练算法终止时,我们返回这些参数而不是最新的参数。当验证集上的误差在事先指定的循环次数内没有进一步改善时,算法就会终止。此过程在算法7.1中有更正式的说明。

这种策略被称为提前终止(early  stopping)。这可能是深度学习中最常用的正则化形式。它的流行主要是因为有效性和简单性。

我们可以认为提前终止是非常高效的超参数选择算法。按照这种观点,训练步数仅是另一个超参数。我们从图7.3可以看到,这个超参数在验证集上具有U型性能曲线。很多控制模型容量的超参数在验证集上都是这样的U型性能曲线,如图5.3所示。在提前终止的情况下,我们通过控制拟合训练集的步数来控制模型的有效容量。大多数超参数的选择必须使用高代价的猜测和检查过程,我们需要在训练开始时猜测一个超参数,然后运行几个步骤检查它的训练效果。“训练时间”是唯一只要跑一次训练就能尝试很多值的超参数。通过提前终止自动选择超参数的唯一显著的代价是训练期间要定期评估验证集。在理想情况下,这可以并行在与主训练过程分离的机器上,或独立的CPU,或独立的GPU上完成。如果没有这些额外的资源,可以使用比训练集小的验证集或较不频繁地评估验证集来减小评估代价,较粗略地估算取得最佳的训练时间。

另一个提前终止的额外代价是需要保持最佳的参数副本。这种代价一般是可忽略的,因为可以将它储存在较慢较大的存储器上(例如,在GPU内存中训练,但将最佳参数存储在主存储器或磁盘驱动器上)。由于最佳参数的写入很少发生而且从不在训练过程中读取,这些偶发的慢写入对总训练时间的影响不大。

提前终止是一种非常不显眼的正则化形式,它几乎不需要改变基本训练过程、目标函数或一组允许的参数值。这意味着,无须破坏学习动态就能很容易地使用提前终止。相对于权重衰减,必须小心不能使用太多的权重衰减,以防网络陷入不良局部极小点(对应于病态的小权重)。

提前终止可单独使用或与其他的正则化策略结合使用。即使为鼓励更好泛化,使用正则化策略改进目标函数,在训练目标的局部极小点达到最好泛化也是非常罕见的。

提前终止需要验证集,这意味着某些训练数据不能被馈送到模型。为了更好地利用这一额外的数据,我们可以在完成提前终止的首次训练之后,进行额外的训练。在第二轮,即额外的训练步骤中,所有的训练数据都被包括在内。有两个基本的策略都可以用于第二轮训练过程。

*  *  *

算法7.1 用于确定最佳训练时间量的提前终止元算法。这种元算法是一种通用策略,可以很好地在各种训练算法和各种量化验证集误差的方法上工作。

*  *  *

 令n为评估间隔的步数。

 令p为“耐心(patience)”,即观察到较坏的验证集表现p次后终止。

 令θo为初始参数。

 θ←θo

 i←0

 j←0

 ν←∞

 θ*←θ

 i*←i

 while  j<p  do

  运行训练算法n步,更新θ。

  i←i+n

  ν'←ValidationSetError(θ)

  if  ν'<ν  then

   j←0

   θ*←θ

   i*←i

   ν←ν'

  else

   j←j+1

  end  if

 end  while

最佳参数为θ*,最佳训练步数为i*

*  *  *

一个策略(算法7.2  )是再次初始化模型,然后使用所有数据再次训练。在这个第二轮训练过程中,我们使用第一轮提前终止训练确定的最佳步数。此过程有一些细微之处。例如,我们没有办法知道重新训练时,对参数进行相同次数的更新和对数据集进行相同次数的遍历哪一个更好。由于训练集变大了,在第二轮训练时,每一次遍历数据集将会更多次地更新参数。

另一个策略是保持从第一轮训练获得的参数,然后使用全部的数据继续训练。在这个阶段,已经没有验证集指导我们需要在训练多少步后终止。取而代之,我们可以监控验证集的平均损失函数,并继续训练,直到它低于提前终止过程终止时的目标值。此策略避免了重新训练模型的高成本,但表现并没有那么好。例如,验证集的目标不一定能达到之前的目标值,所以这种策略甚至不能保证终止。我们会在算法7.3中更正式地介绍这个过程。

提前终止对减少训练过程的计算成本也是有用的。除了由于限制训练的迭代次数而明显减少的计算成本,还带来了正则化的益处(不需要添加惩罚项的代价函数或计算这种附加项的梯度)。

*  *  *

算法7.2 使用提前终止确定训练步数,然后在所有数据上训练的元算法。

 令为训练集。

 从随机θ开始,使用作为训练集,作为验证集,

 运行(算法7.1  )。这将返回最佳训练步数i*。

 将θ再次设为随机值。

 上训练i*步。

*  *  *



*  *  *

算法7.3 使用提前终止确定将会过拟合的目标值,然后在所有数据上训练直到再次达到该值的元算法。

提前终止为何具有正则化效果:目前为止,我们已经声明提前终止是一种正则化策略,但只通过展示验证集误差的学习曲线是一个U型曲线来支持这种说法。提前终止正则化模型的真正机制是什么呢?Bishop(1995a)和Sjöberg  and  Ljung(1995)认为提前终止可以将优化过程的参数空间限制在初始参数值θ0的小邻域内。更具体地,想象用学习率进行τ个优化步骤(对应于τ个训练迭代)。我们可以将作为有效容量的度量。假设梯度有界,限制迭代的次数和学习速率能够限制从θ0到达的参数空间的大小,如图7.4所示。在这个意义上,的效果就好像是权重衰减系数的倒数。

图7.4 提前终止效果的示意图。(左)实线轮廓线表示负对数似然的轮廓。虚线表示从原点开始的SGD所经过的轨迹。提前终止的轨迹在较早的点处停止,而不是停止在最小化代价的点w*处。(右)为了对比,使用L2正则化效果的示意图。虚线圆圈表示L2惩罚的轮廓,L2惩罚使得总代价的最小值比非正则化代价的最小值更靠近原点

事实上,在二次误差的简单线性模型和简单的梯度下降情况下,我们可以展示提前终止相当于L2正则化。

为了与经典L2正则化比较,我们只考察唯一的参数是线性权重的简单情形。我们在权重w的经验最佳值w*附近以二次近似建模代价函数J:

其中H是J关于w在w*点的Hessian。鉴于假设w*是J(w)的最小点,我们知道H为半正定。在局部泰勒级数逼近下,梯度由下式给出:

接下来我们研究训练时参数向量的轨迹。为简化起见,我们将参数向量初始化为原点(3),也就是w(0)=0。我们通过分析上的梯度下降来研究J上近似的梯度下降的效果:

现在让我们在H特征向量的空间中改写表达式,利用H的特征分解:,其中Λ是对角矩阵,Q是特征向量的一组标准正交基。

假定w(0)=0并且选择得足够小以保证,经过τ次参数更新后轨迹如下:

现在,式(7.13)中的表达式能被重写为

比较式(7.40)和式(7.42),我们能够发现,如果超参数和τ满足

那么L2正则化和提前终止可以看作等价的(至少在目标函数的二次近似下)。进一步取对数,使用log(1+x)的级数展开,我们可以得出结论:如果所有λi是小的(即且),那么

也就是说,在这些假设下,训练迭代次数τ起着与L2参数成反比的作用,的倒数与权重衰减系数的作用类似。

在大曲率(目标函数)方向上的参数值受正则化影响小于小曲率方向。当然,在提前终止的情况下,这实际上意味着在大曲率方向的参数比较小曲率方向的参数更早地学习到。

本节中的推导表明,长度为τ的轨迹结束于L2正则化目标的极小点。当然,提前终止比简单的轨迹长度限制更丰富;取而代之,提前终止通常涉及监控验证集误差,以便在空间特别好的点处终止轨迹。因此提前终止比权重衰减更具有优势,提前终止能自动确定正则化的正确量,而权重衰减需要进行多个不同超参数值的训练实验。