InstanceNormalization

InstanceNormalization - 22

版本

此版本的运算符自 版本 22 起可用。

摘要

执行论文 https://arxiv.org/abs/1607.08022 中所述的实例归一化。

y = scale * (x - mean) / sqrt(variance + epsilon) + B,其中 mean 和 variance 是按实例按通道计算的。

属性

  • epsilon - FLOAT (默认为 '1e-05')

    用于避免除以零的 epsilon 值。

输入

  • 输入 (异构) - T

    来自前一个运算符的输入数据张量;图像情况的维度为 (N x C x H x W),其中 N 是批大小,C 是通道数,H 和 W 是数据的高度和宽度。对于非图像情况,维度形式为 (N x C x D1 x D2 … Dn),其中 N 是批大小。

  • scale (异构) - T

    大小为 C 的输入 1 维 scale 张量。

  • B (异构) - T

    大小为 C 的输入 1 维 bias 张量。

输出

  • 输出 (异构) - T

    与输入具有相同形状的输出张量。

类型约束

  • T 在 ( tensor(bfloat16), tensor(double), tensor(float), tensor(float16) )

    将输入和输出类型限制为浮点张量。

InstanceNormalization - 6

版本

此版本的操作符自版本 6 起可用。

摘要

执行论文 https://arxiv.org/abs/1607.08022 中所述的实例归一化。

y = scale * (x - mean) / sqrt(variance + epsilon) + B,其中 mean 和 variance 是按实例按通道计算的。

属性

  • epsilon - FLOAT (默认为 '1e-05')

    用于避免除以零的 epsilon 值。

输入

  • 输入 (异构) - T

    来自前一个运算符的输入数据张量;图像情况的维度为 (N x C x H x W),其中 N 是批大小,C 是通道数,H 和 W 是数据的高度和宽度。对于非图像情况,维度形式为 (N x C x D1 x D2 … Dn),其中 N 是批大小。

  • scale (异构) - T

    大小为 C 的输入 1 维 scale 张量。

  • B (异构) - T

    大小为 C 的输入 1 维 bias 张量。

输出

  • 输出 (异构) - T

    与输入具有相同形状的输出张量。

类型约束

  • T 在 ( tensor(double), tensor(float), tensor(float16) )

    将输入和输出类型限制为浮点张量。

InstanceNormalization - 1

版本

此版本的运算符自 版本 1 起可用。

摘要

执行论文 https://arxiv.org/abs/1607.08022 中所述的实例归一化。

y = scale * (x - mean) / sqrt(variance + epsilon) + B,其中 mean 和 variance 是按实例按通道计算的。

属性

  • consumed_inputs - 整型 :

    传统优化属性。

  • epsilon - FLOAT (默认为 '1e-05')

    用于避免除以零的 epsilon 值,默认为 1e-5f。

输入

  • 输入 (异构) - T

    形状为 NCHW 的输入 4 维张量。

  • scale (异构) - T

    大小为 C 的输入 1 维 scale 张量。

  • B (异构) - T

    大小为 C 的输入 1 维 bias 张量。

输出

  • 输出 (异构) - T

    与输入具有相同形状的输出 4 维张量。

类型约束

  • T 在 ( tensor(double), tensor(float), tensor(float16) )

    将输入和输出类型限制为浮点张量。