pytorch之张量的理解

2023-01-05,,

张量==容器

张量是现代机器学习的基础,他的核心是一个容器,多数情况下,它包含数字,因此可以将它看成一个数字的水桶。

张量有很多中形式,首先让我们来看最基本的形式。从0维到5维的形式

0维张量/标量:装在水桶中的每个数字称为“标量”。标量就是一个数字。

1维张量/标量:数组,一维张量,也被视为“向量",可以把向量视为一个单列或者单行的数字。

2维张量:矩阵。典型的例子就是邮件列表,比如我们有10000个人,每个人都有7个特征(名字,性别,城市等等),张量具有形状,形状是一个水桶,既装着我们数据也定义了张量的最大尺寸。

我们就可以将数据放进二维张量,它是(10000,7),其中行列可以进行调整。

3维张量:这个时候张量才变的有用。我们需要将一系列二维张量存放在水桶中,就形成了3维张量

一个三维张量有三个坐标轴,可以看到:x.ndim 输出为3,我们再看邮件列表,现在我们有10个邮件列表,我们将存储2维张量在另一个水桶中创建一个3维张量,

(number_of_mailings_lists,number_of_people,number_of_charactistics_per_person)(10,10000,7)

因此,3维张量就是一个数字构成 的立方体。

存储在张量数据中的公式,在这里有一些存储在各种张量 的公用数据集类型:

3维=时间序列

4维=图像

5维=视频

几乎所有的张量的共同之处是样本量,样本量是集合中元素的数量。它可以是一些图像,一些视频,一些文件或者一些推特。

通常,真实的数据至少是一个数据量。

把形状里不同维度看成字段,我们找到一个字段的最小值来描述数据。

pytorch之张量的理解的相关教程结束。

《pytorch之张量的理解.doc》

下载本文的Word格式文档,以方便收藏与打印。