Pytorch permute / transpose 和 view / reshape, flatten函数
1、transpose与permute
transpose() 和 permute() 都是返回转置后矩阵,在pytorch中转置用的函数就只有这两个 ,这两个函数都是交换维度的操作
transpose用法:tensor.transpose(dim0, dim1) → Tensor
只能操作2D矩阵的转置, transpose每次只能交换两个维度, 这是相比于permute
的一个不同点,每次输入两个index,实现转置,,参数顺序无所谓。
permute用法:tensor.permute(dim0, dim1, ...., dimn)
permute可以进行多维度转置, permute每次可以交换多个维度,且必须传入所有维度数,参数顺序表示交换结果是原值的哪个维。
permute操作可以有1至多步的Transpose操作实现
注意:使用transpose或permute之后,若要使用view,必须先contiguous()
-
# 创造二维数据x,dim=0时候2,dim=1时候3
-
x = torch.randn(2,3) 'x.shape → [2,3]'
-
# 创造三维数据y,dim=0时候2,dim=1时候3,dim=2时候4
-
y = torch.randn(2,3,4) 'y.shape → [2,3,4]'
-
-
"""
-
操作dim不同:
-
transpose()只能一次操作两个维度;permute()可以一次操作多维数据,
-
且必须传入所有维度数,因为permute()的参数是int*。
-
"""
-
-
# 对于transpose
-
x.transpose(0,1) 'shape→[3,2] '
-
x.transpose(1,0) 'shape→[3,2] '
-
y.transpose(0,1) 'shape→[3,2,4]'
-
y.transpose(0,2,1) 'error,操作不了多维'
-
-
# 对于permute()
-
x.permute(0,1) 'shape→[2,3]'
-
x.permute(1,0) 'shape→[3,2], 注意返回的shape不同于x.transpose(1,0) '
-
y.permute(0,1) "error 没有传入所有维度数"
-
y.permute(1,0,2) 'shape→[3,2,4]'
-
-
"""
-
操作dim不同:
-
transpose()只能一次操作两个维度, 维度的顺序不影响结果;permute()可以一次操作多维数据,
-
且必须传入所有维度数,因为permute()的参数是int*。
-
"""
-
# 对于transpose, (0,1) 和 (1,0) 都是指变换 维度 0 和 1, 输入顺序不影响
-
x1 = x.transpose(0,1) 'shape→[3,2] '
-
x2 = x.transpose(1,0) '也变换了,shape→[3,2] '
-
-
# 对于permute(),
-
x1 = x.permute(0,1) '保持原理tensor不变, 不同transpose,shape→[2,3] '
-
x2 = x.permute(1,0) 'shape→[3,2] '
-
-
y1 = y.permute(0,1,2) '保持不变,shape→[2,3,4] '
-
y2 = y.permute(1,0,2) 'shape→[3,2,4] '
-
y3 = y.permute(1,2,0) 'shape→[3,4,2] '
2、关于连续contiguous()
用view()函数改变通过转置后的数据结构,导致报错
RuntimeError: invalid argument 2: view size is not compatible with input tensor's....
这是因为tensor经过转置后数据的内存地址不连续导致的,也就是tensor . is_contiguous()==False。
虽然在torch里面,view函数相当于numpy的reshape,但是这时候reshape()可以改变该tensor结构,但是view()不可以
-
x = torch.rand(3,4)
-
x = x.transpose(0,1)
-
print(x.is_contiguous()) # 是否连续
-
'False'
-
# 会发现
-
x.view(3,4)
-
'''
-
RuntimeError: invalid argument 2: view size is not compatible with input tensor's....
-
就是不连续导致的
-
'''
-
# 但是这样是可以的。
-
x = x.contiguous()
-
x.view(3,4)
-
-
x = torch.rand(3,4)
-
x = x.permute(1,0) # 等价x = x.transpose(0,1)
-
x.reshape(3,4)
-
'''这就不报错了
-
说明x.reshape(3,4) 这个操作
-
等于x = x.contiguous().view()
-
尽管如此,但是我们还是不推荐使用reshape
-
除非为了获取完全不同但是数据相同的克隆体
-
'''
调用contiguous()时,会强制拷贝一份tensor,让它的布局从头到尾创建的一毛一样。
只需要记住了,每次在使用view()之前,该tensor只要使用了transpose()和permute()这两个函数一定要contiguous().
transpose与permute会实实在在的根据需求(要交换的dim)把相应的Tensor元素的位置进行调整, 而view 会将Tensor所有维度拉平成一维 (即按行,这也是为什么view操作要求Tensor是contiguous的原因),然后再根据传入的的维度(只要保证各维度的乘积=总元素个数即可)信息重构出一个Tensor。
-
a = torch.Tensor([[[1,2,3,4,5], [6,7,8,9,10], [11,12,13,14,15]],
-
[[-1,-2,-3,-4,-5], [-6,-7,-8,-9,-10], [-11,-12,-13,-14,-15]]])
-
a.shape
-
torch.Size([2, 3, 5])
-
# 还是上面的Tensor a
-
print(a.shape)
-
torch.Size([2, 3, 5])
-
print(a.view(2,5,3))
-
tensor([[[ 1., 2., 3.],
-
[ 4., 5., 6.],
-
[ 7., 8., 9.],
-
[ 10., 11., 12.],
-
[ 13., 14., 15.]],
-
-
[[ -1., -2., -3.],
-
[ -4., -5., -6.],
-
[ -7., -8., -9.],
-
[-10., -11., -12.],
-
[-13., -14., -15.]]])
-
1,2)c = a.transpose(
-
print(c, c.shape)
-
(tensor([[[ 1., 6., 11.],
-
[ 2., 7., 12.],
-
[ 3., 8., 13.],
-
[ 4., 9., 14.],
-
[ 5., 10., 15.]],
-
-
[[ -1., -6., -11.],
-
[ -2., -7., -12.],
-
[ -3., -8., -13.],
-
[ -4., -9., -14.],
-
[ -5., -10., -15.]]]),
-
torch.Size([2, 5, 3]))
即使view()
和transpose()
最终得到的Tensor的shape是一样的,但二者内容并不相同。view函数只是按照给定的(2,5,3)的Tensor维度,将元素按顺序一个个填进去;而transpose函数,则的确是在进行第一个第二维度的转置。
3、view与reshape的区别
view()具有跟reshape()相同的功能,都能去重塑矩阵的形状
不同点:
reshape()方法不受此限制;如果对 tensor 调用过 transpose, permute等操作的话会使该 tensor 在内存中变得不再连续。
view():
作用:将tensor转换为指定的shape,原始的data不改变。返回的tensor与原始的tensor共享存储区。view()方法只适用于满足连续性(contiguous)条件的tensor,并且该操作不会开辟新的内存空间,只是产生了对原存储空间的一个新别称和引用,返回值是视图。也就是说view不会改变原来数据的存放方式,并且,也不会产生数据的副本,view返回的是视图。
如果tensor 不满足连续性条件,需要先调用 contiguous()方法,但这种方法变换后的tensor就不是与原始tensor共享内存了,而是被重新开辟了一个空间。
view()可以通过在某一维度输入为-1,来动态调整这个矩阵的维度的size, 而 reshape且无动态调整的功能。而且 view()用于pytorch中对张量进行处理,
view方法可以调整tensor的形状,但必须保证调整前后元素总数一致。view不会修改自身的数据,返回的新tensor与源tensor共享内存,即更改其中一个,另外一个也会跟着改变
reshape():
作用:与view方法类似,将输入tensor转换为新的shape格式。
reshape方法更强大,可以认为a.reshape = a.view() a.contiguous().view()。
reshape()方法的返回值既可以是视图,也可以是副本。即:在满足tensor连续性条件时,a.reshape返回的结果与a.view()相同,否则返回的结果与a.contiguous().view()相同。
4、torch.flatten()
torch.flatten(input, start_dim=0, end_dim=-1) → Tensor
input (Tensor) – 输入为Tensor
start_dim (int) – 展平的开始维度
end_dim (int) – 展平的结束维度
展平一个连续范围的维度,输出类型为Tensor, flatten函数就是对tensor类型进行扁平化处理,也就是在不同维度上进行堆叠操作,a.flatten(m),这个意思是将a这个tensor,从第m维度开始堆叠,一直堆叠到最后一个维度
-
import torch
-
# t 是三维张量 torch.Size([3, 2, 2])
-
t = torch.tensor([[[1, 2],
-
[3, 4]],
-
[[5, 6],
-
[7, 8]],
-
[[9, 10],
-
[11, 12]]])
-
#如果不传入参数,默认开始维度为0,最后维度为-1,展开为一维
-
result_0 = torch.flatten(t)
-
print(result_0)
-
'''
-
tensor([ 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12])
-
'''
-
-
#当开始维度为1,最后维度为-1,展开为3x4,也就是说第一维度不变,后面的压缩
-
result_1 = torch.flatten(t, start_dim=1)
-
print(result_1)
-
'''
-
tensor([[ 1, 2, 3, 4],
-
[ 5, 6, 7, 8],
-
[ 9, 10, 11, 12]])
-
'''
-
-
torch.flatten(t, start_dim=1).size()
-
# torch.Size([3, 4])
-
#下面的和上面进行对比应该就能看出是,当锁定最后的维度的时候
-
#前面的就会合并
-
result_3 = torch.flatten(t, start_dim=0, end_dim=1)
-
print(result_3)
-
'''
-
tensor([[ 1, 2],
-
[ 3, 4],
-
[ 5, 6],
-
[ 7, 8],
-
[ 9, 10],
-
[11, 12]])
-
'''
-
-
torch.flatten(t, start_dim=0, end_dim=1).size()
-
# torch.Size([6, 2])
示例:
-
import torch
-
# 随机产生了一个tensor,它的Batchsize是2,C是3,H是2,W是3
-
a=torch.rand(2,3,2,3)
-
print(a)
-
'''
-
tensor([[[[0.5521, 0.2547, 0.5242],
-
[0.8248, 0.4500, 0.2413]],
-
-
[[0.7759, 0.1261, 0.0090],
-
[0.0197, 0.6191, 0.0422]],
-
-
[[0.0896, 0.1731, 0.5484],
-
[0.7927, 0.0752, 0.2176]]],
-
-
-
[[[0.0118, 0.3865, 0.9587],
-
[0.6599, 0.2464, 0.0728]],
-
-
[[0.2858, 0.3772, 0.8215],
-
[0.3267, 0.2859, 0.4329]],
-
-
[[0.7329, 0.4436, 0.4246],
-
[0.4162, 0.8688, 0.5286]]]])
-
'''
-
##########################################################################
-
result_0 = a.flatten(0)
-
print(result_0.shape)
-
print(result_0)
-
'''
-
torch.Size([36])
-
tensor([0.5521, 0.2547, 0.5242, 0.8248, 0.4500, 0.2413, 0.7759, 0.1261, 0.0090,
-
0.0197, 0.6191, 0.0422, 0.0896, 0.1731, 0.5484, 0.7927, 0.0752, 0.2176,
-
0.0118, 0.3865, 0.9587, 0.6599, 0.2464, 0.0728, 0.2858, 0.3772, 0.8215,
-
0.3267, 0.2859, 0.4329, 0.7329, 0.4436, 0.4246, 0.4162, 0.8688, 0.5286])
-
'''
-
##########################################################################
-
result_1 = a.flatten(1)
-
print(result_1.shape)
-
print(result_1)
-
'''
-
torch.Size([2, 18])
-
tensor([[0.5521, 0.2547, 0.5242, 0.8248, 0.4500, 0.2413, 0.7759, 0.1261, 0.0090,
-
0.0197, 0.6191, 0.0422, 0.0896, 0.1731, 0.5484, 0.7927, 0.0752, 0.2176],
-
[0.0118, 0.3865, 0.9587, 0.6599, 0.2464, 0.0728, 0.2858, 0.3772, 0.8215,
-
0.3267, 0.2859, 0.4329, 0.7329, 0.4436, 0.4246, 0.4162, 0.8688, 0.5286]])
-
'''
-
##########################################################################
-
result_2 = a.flatten(2)
-
print(result_2.shape)
-
print(result_2)
-
'''
-
torch.Size([2, 3, 6])
-
tensor([[[0.5521, 0.2547, 0.5242, 0.8248, 0.4500, 0.2413],
-
[0.7759, 0.1261, 0.0090, 0.0197, 0.6191, 0.0422],
-
[0.0896, 0.1731, 0.5484, 0.7927, 0.0752, 0.2176]],
-
-
[[0.0118, 0.3865, 0.9587, 0.6599, 0.2464, 0.0728],
-
[0.2858, 0.3772, 0.8215, 0.3267, 0.2859, 0.4329],
-
[0.7329, 0.4436, 0.4246, 0.4162, 0.8688, 0.5286]]])
-
'''
-
##########################################################################
-
result_3 = a.flatten(3)
-
print(result_3.shape)
-
print(result_3)
-
'''
-
torch.Size([2, 3, 2, 3])
-
tensor([[[[0.5521, 0.2547, 0.5242],
-
[0.8248, 0.4500, 0.2413]],
-
-
[[0.7759, 0.1261, 0.0090],
-
[0.0197, 0.6191, 0.0422]],
-
-
[[0.0896, 0.1731, 0.5484],
-
[0.7927, 0.0752, 0.2176]]],
-
-
-
[[[0.0118, 0.3865, 0.9587],
-
[0.6599, 0.2464, 0.0728]],
-
-
[[0.2858, 0.3772, 0.8215],
-
[0.3267, 0.2859, 0.4329]],
-
-
[[0.7329, 0.4436, 0.4246],
-
[0.4162, 0.8688, 0.5286]]]])
-
'''
-
-
##########################################################################
-
result_4 = a.flatten(0, 1)
-
print(result_4.shape)
-
print(result_4)
-
-
'''
-
torch.Size([6, 2, 3])
-
tensor([[[0.5521, 0.2547, 0.5242],
-
[0.8248, 0.4500, 0.2413]],
-
-
[[0.7759, 0.1261, 0.0090],
-
[0.0197, 0.6191, 0.0422]],
-
-
[[0.0896, 0.1731, 0.5484],
-
[0.7927, 0.0752, 0.2176]],
-
-
[[0.0118, 0.3865, 0.9587],
-
[0.6599, 0.2464, 0.0728]],
-
-
[[0.2858, 0.3772, 0.8215],
-
[0.3267, 0.2859, 0.4329]],
-
-
[[0.7329, 0.4436, 0.4246],
-
[0.4162, 0.8688, 0.5286]]])
-
'''
a.flatten(0)的意思就是从batchsize这个维度开始堆叠,直到W结束,那最后就是成一维的了,也就是只剩W这个维度,那当然就是只有一条这样子
a.flatten(1)的意思就是从C(channel)这个维度开始堆叠,直到W结束,Batchsize这个维度没有参与运算,因此还是有B这个维度的,这样的话就是相当于将三维的数据堆叠成只有一个维度W的数据,那当然就变成了两条
a.flatten(2)的意思就是从H(Height)这个维度开始堆叠,直到W结束,B和C这两个维度都没有参与运算,因此将H这个维度堆叠到W上去,就是将原本的平面变成了一个长条
最后a.flatten(3)的意思就是将H这个维度堆叠到H这个维度上去,自己堆叠自己就是没有堆叠
a.flatten(0,1), 将B的维度叠加到C的维度上,就是将两个batch叠加合并了
5、flatten函数的用法及其与reshape函数的区别
这篇好文章是转载于:学新通技术网
- 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
- 本站站名: 学新通技术网
- 本文地址: /boutique/detail/tanhgcechf
-
photoshop保存的图片太大微信发不了怎么办
PHP中文网 06-15 -
《学习通》视频自动暂停处理方法
HelloWorld317 07-05 -
word里面弄一个表格后上面的标题会跑到下面怎么办
PHP中文网 06-20 -
Android 11 保存文件到外部存储,并分享文件
Luke 10-12 -
photoshop扩展功能面板显示灰色怎么办
PHP中文网 06-14 -
微信公众号没有声音提示怎么办
PHP中文网 03-31 -
excel下划线不显示怎么办
PHP中文网 06-23 -
excel打印预览压线压字怎么办
PHP中文网 06-22 -
TikTok加速器哪个好免费的TK加速器推荐
TK小达人 10-01 -
怎样阻止微信小程序自动打开
PHP中文网 06-13