LayerNorm¶
- class paddle.nn. LayerNorm ( normalized_shape, epsilon=1e-05, weight_attr=None, bias_attr=None, name=None ) ¶
构建 LayerNorm
类的一个可调用对象,具体用法参照 代码示例
。其中实现了层归一化层(Layer Normalization Layer)的功能,其可以应用于小批量输入数据。更多详情请参考:Layer Normalization 。
计算公式如下:
\(x\):该层神经元的向量表示
\(H\):层中隐藏神经元个数
\(\epsilon\):添加较小的值到方差中以防止除零
\(g\):可训练的增益参数
\(b\):可训练的偏置参数
参数¶
normalized_shape (int|list|tuple) – 需规范化的 shape,期望的输入 shape 为
[*, normalized_shape[0], normalized_shape[1], ..., normalized_shape[-1]]
。如果是单个整数,则此模块将在最后一个维度上规范化(此时最后一维的维度需与该参数相同)。epsilon (float,可选) - 指明在计算过程中是否添加较小的值到方差中以防止除零。默认值:1e-05。
weight_attr (ParamAttr|bool|None, 可选) - 用于指定可训练的增益参数 :math:g 的属性。如果为 False,则不使用权重(即权重参数为 None);如果为 None,则会使用一个默认的 ParamAttr 作为权重的属性设置,该属性将权重初始化为 1。默认值为 None,表示使用默认的权重属性。具体用法请参见 ParamAttr。 bias_attr (ParamAttr|bool|None, 可选) - 用于指定可训练的偏置参数 :math:b 的属性。如果为 False,则不使用偏置(即偏置参数为 None);如果为 None,则会使用一个默认的 ParamAttr 作为偏置的属性设置,该属性将偏置初始化为 0。默认值为 None,表示使用默认的偏置属性。具体用法请参见 ParamAttr。
name (str,可选) - 具体用法请参见 Name,一般无需设置,默认值为 None。
形状¶
input: 2-D, 3-D, 4-D 或 5D 的 Tensor。
output:和输入形状一样。
返回¶
Tensor
,维度与x
相同,但内部的数值已经被LayerNorm
标准化处理过。
代码示例¶
COPY-FROM: paddle.nn.LayerNorm