GatherND¶
GatherND - 13¶
版本¶
域:
main
自版本:
13
函数:
False
支持级别:
SupportType.COMMON
形状推断:
True
此版本的运算符自版本 13起可用。
摘要¶
给定秩为 r
>= 1 的 data
矩阵,秩为 q
>= 1 的 indices
矩阵,以及整数 batch_dims
b
,此运算符将 data
的切片收集到秩为 q + r - indices_shape[-1] - 1 - b
的输出矩阵中。
indices
是一个 q 维整数矩阵,最好将其视为 (q-1)
维索引元组矩阵,其中每个元素定义 data
的切片
batch_dims
(表示为 b
)是一个整数,指示批次维度的数量,即 data
矩阵的前 b
个维度和 indices
表示批次,收集从 b+1
维度开始。
关于输入的秩和形状的一些要点
应满足 r >= 1 且 q >= 1。秩
r
和q
之间没有依赖条件需要满足indices
矩阵和data
矩阵的形状的前b
个维度必须相等。应满足 b < min(q, r)。
indices_shape[-1]
的值应在 1(包含)到秩r-b
(包含)之间预计
indices
中的所有值都在大小为s
的轴的范围内 [-s, s-1](即)-data_shape[i] <= indices[...,i] <= data_shape[i] - 1
。如果任何索引值超出范围,则为错误。
输出的计算方式如下
输出矩阵是通过将 indices
矩阵中的每个索引元组映射到输入 data
的相应切片来获得的。
如果
indices_shape[-1] > r-b
=> 错误条件如果
indices_shape[-1] == r-b
,由于indices
的秩为q
,因此可以将indices
视为包含N
个(q-b-1)
维矩阵的N
个(q-b-1)
维矩阵,每个矩阵都包含一个维度为r-b
的一维矩阵,其中N
是一个整数,等于 1 与 indices_shape 的批次维度中的所有元素的乘积。让我们将每个这样的r-b
秩矩阵视为indices_slice
。对应于data[0:b-1,indices_slice]
的每个标量值都填充到(q-b-1)
维矩阵的对应位置,以形成output
矩阵(下面的示例 1)。如果
indices_shape[-1] < r-b
,由于indices
的秩为q
,因此可以将indices
视为包含N
个维度为< r-b
的一维矩阵的N
个(q-b-1)
维矩阵。让我们将每个这样的矩阵视为indices_slice
。对应于data[0:b-1, indices_slice , :]
的每个矩阵切片都填充到(q-b-1)
维矩阵的对应位置,以形成output
矩阵(下面的示例 2、3、4 和 5)。
此运算符是 ScatterND
的逆运算。
示例 1
batch_dims = 0
data = [[0,1],[2,3]] # data_shape = [2, 2]
indices = [[0,0],[1,1]] # indices_shape = [2, 2]
output = [0,3] # output_shape = [2]
示例 2
batch_dims = 0
data = [[0,1],[2,3]] # data_shape = [2, 2]
indices = [[1],[0]] # indices_shape = [2, 1]
output = [[2,3],[0,1]] # output_shape = [2, 2]
示例 3
batch_dims = 0
data = [[[0,1],[2,3]],[[4,5],[6,7]]] # data_shape = [2, 2, 2]
indices = [[0,1],[1,0]] # indices_shape = [2, 2]
output = [[2,3],[4,5]] # output_shape = [2, 2]
示例 4
batch_dims = 0
data = [[[0,1],[2,3]],[[4,5],[6,7]]] # data_shape = [2, 2, 2]
indices = [[[0,1]],[[1,0]]] # indices_shape = [2, 1, 2]
output = [[[2,3]],[[4,5]]] # output_shape = [2, 1, 2]
示例 5
batch_dims = 1
data = [[[0,1],[2,3]],[[4,5],[6,7]]] # data_shape = [2, 2, 2]
indices = [[1],[0]] # indices_shape = [2, 1]
output = [[2,3],[4,5]] # output_shape = [2, 2]
属性¶
batch_dims - INT(默认值为
'0'
)批次维度的数量。索引的收集从 data[batch_dims:] 的维度开始
输入¶
data(异构) - T
秩为 r >= 1 的矩阵。
indices(异构) - tensor(int64)
秩为 q >= 1 的矩阵。预计所有索引值都在大小为 s 的轴的范围内 [-s, s-1]。如果任何索引值超出范围,则为错误。
输出¶
output(异构) - T
秩为 q + r - indices_shape[-1] - 1 的矩阵。
类型约束¶
T 在 (
tensor(bfloat16)
,tensor(bool)
,tensor(complex128)
,tensor(complex64)
,tensor(double)
,tensor(float)
,tensor(float16)
,tensor(int16)
,tensor(int32)
,tensor(int64)
,tensor(int8)
,tensor(string)
,tensor(uint16)
,tensor(uint32)
,tensor(uint64)
,tensor(uint8)
) 中将输入和输出类型约束为任何张量类型。
GatherND - 12¶
版本¶
域:
main
since_version:
12
函数:
False
支持级别:
SupportType.COMMON
形状推断:
True
此版本的运算符已从版本 12 开始可用。
摘要¶
给定秩为 r
>= 1 的 data
矩阵,秩为 q
>= 1 的 indices
矩阵,以及整数 batch_dims
b
,此运算符将 data
的切片收集到秩为 q + r - indices_shape[-1] - 1 - b
的输出矩阵中。
indices
是一个 q 维整数矩阵,最好将其视为 (q-1)
维索引元组矩阵,其中每个元素定义 data
的切片
batch_dims
(表示为 b
)是一个整数,指示批次维度的数量,即 data
矩阵的前 b
个维度和 indices
表示批次,收集从 b+1
维度开始。
关于输入的秩和形状的一些要点
应满足 r >= 1 且 q >= 1。秩
r
和q
之间没有依赖条件需要满足indices
矩阵和data
矩阵的形状的前b
个维度必须相等。应满足 b < min(q, r)。
indices_shape[-1]
的值应在 1(包含)到秩r-b
(包含)之间预计
indices
中的所有值都在大小为s
的轴的范围内 [-s, s-1](即)-data_shape[i] <= indices[...,i] <= data_shape[i] - 1
。如果任何索引值超出范围,则为错误。
输出的计算方式如下
输出矩阵是通过将 indices
矩阵中的每个索引元组映射到输入 data
的相应切片来获得的。
如果
indices_shape[-1] > r-b
=> 错误条件如果
indices_shape[-1] == r-b
,由于indices
的秩为q
,因此可以将indices
视为包含N
个(q-b-1)
维矩阵的N
个(q-b-1)
维矩阵,每个矩阵都包含一个维度为r-b
的一维矩阵,其中N
是一个整数,等于 1 与 indices_shape 的批次维度中的所有元素的乘积。让我们将每个这样的r-b
秩矩阵视为indices_slice
。对应于data[0:b-1,indices_slice]
的每个标量值都填充到(q-b-1)
维矩阵的对应位置,以形成output
矩阵(下面的示例 1)。如果
indices_shape[-1] < r-b
,由于indices
的秩为q
,因此可以将indices
视为包含N
个维度为< r-b
的一维矩阵的N
个(q-b-1)
维矩阵。让我们将每个这样的矩阵视为indices_slice
。对应于data[0:b-1, indices_slice , :]
的每个矩阵切片都填充到(q-b-1)
维矩阵的对应位置,以形成output
矩阵(下面的示例 2、3、4 和 5)。
此运算符是 ScatterND
的逆运算。
示例 1
batch_dims = 0
data = [[0,1],[2,3]] # data_shape = [2, 2]
indices = [[0,0],[1,1]] # indices_shape = [2, 2]
output = [0,3] # output_shape = [2]
示例 2
batch_dims = 0
data = [[0,1],[2,3]] # data_shape = [2, 2]
indices = [[1],[0]] # indices_shape = [2, 1]
output = [[2,3],[0,1]] # output_shape = [2, 2]
示例 3
batch_dims = 0
data = [[[0,1],[2,3]],[[4,5],[6,7]]] # data_shape = [2, 2, 2]
indices = [[0,1],[1,0]] # indices_shape = [2, 2]
output = [[2,3],[4,5]] # output_shape = [2, 2]
示例 4
batch_dims = 0
data = [[[0,1],[2,3]],[[4,5],[6,7]]] # data_shape = [2, 2, 2]
indices = [[[0,1]],[[1,0]]] # indices_shape = [2, 1, 2]
output = [[[2,3]],[[4,5]]] # output_shape = [2, 1, 2]
示例 5
batch_dims = 1
data = [[[0,1],[2,3]],[[4,5],[6,7]]] # data_shape = [2, 2, 2]
indices = [[1],[0]] # indices_shape = [2, 1]
output = [[2,3],[4,5]] # output_shape = [2, 2]
属性¶
batch_dims - INT(默认值为
'0'
)批次维度的数量。索引的收集从 data[batch_dims:] 的维度开始
输入¶
data(异构) - T
秩为 r >= 1 的矩阵。
indices(异构) - tensor(int64)
秩为 q >= 1 的矩阵。预计所有索引值都在大小为 s 的轴的范围内 [-s, s-1]。如果任何索引值超出范围,则为错误。
输出¶
output(异构) - T
秩为 q + r - indices_shape[-1] - 1 的矩阵。
类型约束¶
T 在 (
tensor(bool)
,tensor(complex128)
,tensor(complex64)
,tensor(double)
,tensor(float)
,tensor(float16)
,tensor(int16)
,tensor(int32)
,tensor(int64)
,tensor(int8)
,tensor(string)
,tensor(uint16)
,tensor(uint32)
,tensor(uint64)
,tensor(uint8)
) 中将输入和输出类型约束为任何张量类型。
GatherND - 11¶
版本¶
域:
main
since_version:
11
函数:
False
支持级别:
SupportType.COMMON
形状推断:
True
此版本的运算符已从版本 11 开始可用。
摘要¶
给定秩 r
>= 1 的 data
张量,以及秩 q
>= 1 的 indices
张量,此运算符将 data
的切片收集到秩 q + r - indices_shape[-1] - 1
的输出张量中。
indices
是一个 q 维整数矩阵,最好将其视为 (q-1)
维索引元组矩阵,其中每个元素定义 data
的切片
关于输入的秩和形状的一些要点
应满足 r >= 1 且 q >= 1。秩
r
和q
之间没有依赖条件需要满足indices_shape[-1]
的值应在 1(含)到秩r
(含)之间。预计
indices
中的所有值都在大小为s
的轴的范围内 [-s, s-1](即)-data_shape[i] <= indices[...,i] <= data_shape[i] - 1
。如果任何索引值超出范围,则为错误。
输出的计算方式如下
输出矩阵是通过将 indices
矩阵中的每个索引元组映射到输入 data
的相应切片来获得的。
如果
indices_shape[-1] > r
=> 错误条件。如果
indices_shape[-1] == r
,由于indices
的秩为q
,因此indices
可以被认为是一个(q-1)
维张量,包含维度为r
的一维张量。让我们将每个这样的r
秩张量视为indices_slice
。每个对应于data[indices_slice]
的标量值都将填充到(q-1)
维张量的相应位置,以形成output
张量(下面的示例 1)。如果
indices_shape[-1] < r
,由于indices
的秩为q
,因此indices
可以被认为是一个(q-1)
维张量,包含维度为< r
的一维张量。让我们将每个这样的张量视为indices_slice
。每个对应于data[indices_slice , :]
的张量切片都将填充到(q-1)
维张量的相应位置,以形成output
张量(下面的示例 2、3 和 4)。
此运算符是 ScatterND
的逆运算。
示例 1
data = [[0,1],[2,3]] # data_shape = [2, 2]
indices = [[0,0],[1,1]] # indices_shape = [2, 2]
output = [0,3] # output_shape = [2]
示例 2
data = [[0,1],[2,3]] # data_shape = [2, 2]
indices = [[1],[0]] # indices_shape = [2, 1]
output = [[2,3],[0,1]] # output_shape = [2, 2]
示例 3
data = [[[0,1],[2,3]],[[4,5],[6,7]]] # data_shape = [2, 2, 2]
indices = [[0,1],[1,0]] # indices_shape = [2, 2]
output = [[2,3],[4,5]] # output_shape = [2, 2]
示例 4
data = [[[0,1],[2,3]],[[4,5],[6,7]]] # data_shape = [2, 2, 2]
indices = [[[0,1]],[[1,0]]] # indices_shape = [2, 1, 2]
output = [[[2,3]],[[4,5]]] # output_shape = [2, 1, 2]
输入¶
data(异构) - T
秩为 r >= 1 的矩阵。
indices(异构) - tensor(int64)
秩为 q >= 1 的矩阵。预计所有索引值都在大小为 s 的轴的范围内 [-s, s-1]。如果任何索引值超出范围,则为错误。
输出¶
output(异构) - T
秩为 q + r - indices_shape[-1] - 1 的矩阵。
类型约束¶
T 在 (
tensor(bool)
,tensor(complex128)
,tensor(complex64)
,tensor(double)
,tensor(float)
,tensor(float16)
,tensor(int16)
,tensor(int32)
,tensor(int64)
,tensor(int8)
,tensor(string)
,tensor(uint16)
,tensor(uint32)
,tensor(uint64)
,tensor(uint8)
) 中将输入和输出类型约束为任何张量类型。