层归一化

层归一化(Layer Normalization)是一种在深度学习中常用的归一化方法,由Jimmy Lei Ba, Jamie Ryan Kiros, Geoffrey E. Hinton在2016年的论文"《Layer Normalization》"中提出。

层归一化是什么?

层归一化是一种特殊的归一化方法,它在单个训练样本上对一层神经元的所有输入进行归一化。与批归一化Batch Normalization)不同,层归一化的效果不依赖于小批量的大小,而且可以直接应用到循环神经网络中。

层归一化的计算方法是:对于每个神经元,计算其所有输入的均值和方差,然后用这两个值来对输入进行归一化。这个过程在训练和测试时都是相同的。

层归一化的优点

层归一化有以下几个优点:

  1. 稳定性:层归一化可以有效地稳定循环神经网络隐藏状态动态。

  2. 训练速度:层归一化可以显著减少训练时间,与之前的技术相比,训练速度有了显著的提升。

  3. 适用性:层归一化可以直接应用到循环神经网络中,而无需对小批量大小进行特殊处理。

层归一化与批归一化的区别

批归一化层归一化都是深度学习中常用的归一化方法,但它们的主要区别在于归一化的范围和依赖性。

批归一化是在一个小批量的训练样本上对每个神经元的输入进行归一化,其效果依赖于小批量的大小。而层归一化是在单个训练样本上对一层神经元的所有输入进行归一化,其效果不依赖于小批量的大小。

此外,批归一化在训练和测试时的行为是不同的,而层归一化在训练和测试时的行为是相同的。


本文作者:Maeiee

本文链接:层归一化

版权声明:如无特别声明,本文即为原创文章,版权归 Maeiee 所有,未经允许不得转载!


喜欢我文章的朋友请随缘打赏,鼓励我创作更多更好的作品!