InstanceNormalization

InstanceNormalization - 22

版本

此版本的运算符自 版本 22 起可用。

摘要

执行论文 https://arxiv.org/abs/1607.08022 中描述的实例归一化。

y = scale * (x - mean) / sqrt(variance + epsilon) + B,其中 mean 和 variance 是按实例按通道计算的。

属性

  • epsilon - FLOAT (默认为 '1e-05')

    用于避免除以零的 epsilon 值。

输入

  • 输入 (异构) - T

    来自前一个操作符的输入数据张量;图像情况下的维度是 (N x C x H x W),其中 N 是批量大小,C 是通道数,H 和 W 是数据的高度和宽度。对于非图像情况,维度形式为 (N x C x D1 x D2 … Dn),其中 N 是批量大小。

  • scale (异构) - T

    大小为 C 的输入一维比例张量。

  • B (异构) - T

    大小为 C 的输入一维偏置张量。

输出

  • 输出 (异构) - T

    与输入形状相同的输出张量。

类型约束

  • T 在 ( tensor(bfloat16), tensor(double), tensor(float), tensor(float16) ) 中

    将输入和输出类型限制为浮点张量。

InstanceNormalization - 6

版本

此版本的操作符自版本 6 起可用。

摘要

执行论文 https://arxiv.org/abs/1607.08022 中描述的实例归一化。

y = scale * (x - mean) / sqrt(variance + epsilon) + B,其中 mean 和 variance 是按实例按通道计算的。

属性

  • epsilon - FLOAT (默认为 '1e-05')

    用于避免除以零的 epsilon 值。

输入

  • 输入 (异构) - T

    来自前一个操作符的输入数据张量;图像情况下的维度是 (N x C x H x W),其中 N 是批量大小,C 是通道数,H 和 W 是数据的高度和宽度。对于非图像情况,维度形式为 (N x C x D1 x D2 … Dn),其中 N 是批量大小。

  • scale (异构) - T

    大小为 C 的输入一维比例张量。

  • B (异构) - T

    大小为 C 的输入一维偏置张量。

输出

  • 输出 (异构) - T

    与输入形状相同的输出张量。

类型约束

  • T 在 ( tensor(double), tensor(float), tensor(float16) ) 中

    将输入和输出类型限制为浮点张量。

InstanceNormalization - 1

版本

此版本的运算符自 版本 1 起可用。

摘要

执行论文 https://arxiv.org/abs/1607.08022 中描述的实例归一化。

y = scale * (x - mean) / sqrt(variance + epsilon) + B,其中 mean 和 variance 是按实例按通道计算的。

属性

  • consumed_inputs - 整型 :

    传统优化属性。

  • epsilon - FLOAT (默认为 '1e-05')

    用于避免除以零的 epsilon 值,默认为 1e-5f。

输入

  • 输入 (异构) - T

    形状为 NCHW 的输入四维张量。

  • scale (异构) - T

    大小为 C 的输入一维比例张量。

  • B (异构) - T

    大小为 C 的输入一维偏置张量。

输出

  • 输出 (异构) - T

    与输入形状相同的输出四维张量。

类型约束

  • T 在 ( tensor(double), tensor(float), tensor(float16) ) 中

    将输入和输出类型限制为浮点张量。