什么是张量
张量有很多种定义的方式,这里只讨论人工智能领域里的概念。
在人工智能领域,定义比较简单,TensorFlow是这么定义的:
A tensor is a generalization of vectors and matrices to potentially higher dimensions.
简单翻译过来就是:张量是多维数组,目的是把向量、矩阵推向更高的维度。
标量、向量、矩阵、张量的关系
这4个概念是维度不断上升的,我们用点线面体的概念来比喻解释会更加容易理解:
感兴趣的可以通过下面的内容了解详情:
《一文看懂标量》
《一文看懂向量》
《一文看懂矩阵》
《一文看懂张量》
百度百科和维基百科
百度百科版本
张量(tensor)理论是数学的一个分支学科,在力学中有重要应用。张量这一术语起源于力学,它最初是用来表示弹性介质中各点应力状态的,后来张量理论发展成为力学和物理学的一个有力的数学工具。张量之所以重要,在于它可以满足一切物理定律必须与坐标系的选择无关的特性。张量概念是矢量概念的推广,矢量是一阶张量。张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数。
维基百科版本
在数学中,张量是一种几何对象,它以多线性方式将几何向量,标量和其他张量映射到结果张量。因此,通常在基础物理和工程应用中已经使用的矢量和标量本身被认为是最简单的张量。另外,来自提供几何矢量的矢量空间的双空间的矢量也被包括作为张量。在这种情况下,几何学主要是为了强调任何坐标系选择的独立性。