scatter_()函数的详细介绍

一、函数介绍
scatter_(input, dim, index, src):将src中数据根据index中的索引按照dim的方向填进input。可以理解成放置元素或者修改元素     

dim:沿着哪个维度进行索引
index:用来 scatter 的元素索引
src:用来 scatter 的源元素,可以是一个标量或一个张量

官网例子:

self[index[i][j][k]][j][k] = src[i][j][k]  # if dim == 0
颜色一样的对应dim一致
self[i][index[i][j][k]][k] = src[i][j][k]  # if dim == 1
self[i][j][index[i][j][k]] = src[i][j][k]  # if dim == 2

二、实现原理

x = torch.rand(2, 5)
 
#tensor([[0.1940, 0.3340, 0.8184, 0.4269, 0.5945],
#        [0.2078, 0.5978, 0.0074, 0.0943, 0.0266]])
 
torch.zeros(3, 5).scatter_(0, torch.LongTensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]), x)
 

LongTensor的shape刚好与x的shape对应,也就是LongTensor每个index指定x中一个数据的填充位置。dim=0,表示按行填充,主要理解按行填充。eg. LongTensor中的第1行第0列的值为2,即索引index=2,表示在第2行(从0开始)进行填充,对应到zeros(3, 5)中就是位置(2,0)。所以此处要求zeros(3, 5)的列数要与x列数相同,LongTensor中的index最大值应与zeros(3, 5)行数相一致,示意图如下

 最终可以得到填充完整的zeros

tensor([[0.1940, 0.5978, 0.0074, 0.4269, 0.5945],
        [0.0000, 0.3340, 0.0000, 0.0943, 0.0000],
        [0.2078, 0.0000, 0.8184, 0.0000, 0.0266]])

说一下我自己的理解:

比如:index中[0][0]=0,那么在需要填充的张量里面的地址为[0][0],也就是index的里面的值就是需要填充张量里面的行,即绿色的零。红色的零就是取值张量的列,对应到需要填充张量的列数。取值张量[0][0]=0.1940。

再比如[1][0]=2,那么在需要填充的张量里面的地址为[2][0],也就是index的里面的值就是需要填充张量里面的行,即绿色的零。红色的零就是取值张量的列,对应到需要填充张量的列数。取值张量[1][0]=0.2078,将0.2078填充到需要填充张量的位置是[2][0]。

再比如[0][2]=2,那么在需要填充的张量里面的地址为[2][2],也就是index的里面的值就是需要填充张量里面的行,即绿色的零。红色的零就是取值张量的列,对应到需要填充张量的列数。取值张量[0][2]=0.8184,将0.8184填充到需要填充张量的位置是[2][2]。

利用该函数实现one-hot

class_num = 10
batch_size = 4
import torch
label = torch.LongTensor(batch_size, 1).random_() % class_num
print('label',label)#shape(4,1)
#label tensor([[6],
        [4],
        [2],
        [2]])
a = torch.zeros(batch_size, class_num).scatter_(1, label, 1)
#tensor([[0., 0., 0., 0., 0., 0., 1., 0., 0., 0.],
#        [1., 0., 0., 0., 0., 0., 0., 0., 0., 0.],
#        [0., 0., 0., 1., 0., 0., 0., 0., 0., 0.],
#        [0., 0., 1., 0., 0., 0., 0., 0., 0., 0.]])
print('a',a)

dim=1,也就是label,shape=1,那个维度,所以取出来的label的值就是需要填充张量[i][j]中的j的值,i就是与label的[i][j]中的i相同


版权声明:本文为zouxiaolv原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。