InstanceNormalization

InstanceNormalization - 22

版本

此版本的运算符已自版本 22 起可用。

摘要

执行论文https://arxiv.org/abs/1607.08022中描述的实例归一化。

y = scale * (x - mean) / sqrt(variance + epsilon) + B,其中均值和方差是针对每个实例每个通道计算的。

属性

  • epsilon - FLOAT (默认值为 '1e-05')

    要使用的 epsilon 值以避免被零除。

输入

  • input (异构) - T

    来自先前运算符的输入数据张量;图像情况的维度为 (N x C x H x W),其中 N 是批次大小,C 是通道数,H 和 W 是数据的高度和宽度。对于非图像情况,维度采用 (N x C x D1 x D2 … Dn) 的形式,其中 N 是批次大小。

  • scale (异构) - T

    大小为 C 的输入一维比例张量。

  • B (异构) - T

    大小为 C 的输入一维偏差张量。

输出

  • output (异构) - T

    与输入形状相同的输出张量。

类型约束

  • T in ( tensor(bfloat16), tensor(double), tensor(float), tensor(float16) )

    将输入和输出类型约束为浮点张量。

InstanceNormalization - 6

版本

此版本的运算符已自版本 6 起可用。

摘要

执行论文https://arxiv.org/abs/1607.08022中描述的实例归一化。

y = scale * (x - mean) / sqrt(variance + epsilon) + B,其中均值和方差是针对每个实例每个通道计算的。

属性

  • epsilon - FLOAT (默认值为 '1e-05')

    要使用的 epsilon 值以避免被零除。

输入

  • input (异构) - T

    来自先前运算符的输入数据张量;图像情况的维度为 (N x C x H x W),其中 N 是批次大小,C 是通道数,H 和 W 是数据的高度和宽度。对于非图像情况,维度采用 (N x C x D1 x D2 … Dn) 的形式,其中 N 是批次大小。

  • scale (异构) - T

    大小为 C 的输入一维比例张量。

  • B (异构) - T

    大小为 C 的输入一维偏差张量。

输出

  • output (异构) - T

    与输入形状相同的输出张量。

类型约束

  • T in ( tensor(double), tensor(float), tensor(float16) )

    将输入和输出类型约束为浮点张量。

InstanceNormalization - 1

版本

此版本的运算符已自版本 1 起可用。

摘要

执行论文https://arxiv.org/abs/1607.08022中描述的实例归一化。

y = scale * (x - mean) / sqrt(variance + epsilon) + B,其中均值和方差是针对每个实例每个通道计算的。

属性

  • consumed_inputs - INTS :

    传统优化属性。

  • epsilon - FLOAT (默认值为 '1e-05')

    要使用的 epsilon 值以避免被零除,默认为 1e-5f。

输入

  • input (异构) - T

    形状为 NCHW 的输入四维张量。

  • scale (异构) - T

    大小为 C 的输入一维比例张量。

  • B (异构) - T

    大小为 C 的输入一维偏差张量。

输出

  • output (异构) - T

    与输入形状相同的输出四维张量。

类型约束

  • T in ( tensor(double), tensor(float), tensor(float16) )

    将输入和输出类型约束为浮点张量。