Nemo的轨迹

work hard, be persistent, and good luck

0%

线性代数的本质 (笔记 03) 概念的解释


关于行列式(determinant),矩阵的逆(reverse),列空间(Column space),秩(rank) ,点积(dot products),叉积(cross products),特征值,特征向量
  • [行列式](# 行列式)
  • [矩阵的秩 rank](# 矩阵的秩 - rank)
  • [逆矩阵](# 逆矩阵)
  • [列空间与零空间,](# 列空间与零空间 -)
  • [特征向量与特征值](# 特征向量与特征值)
  • [点积与对偶性](# 点积与对偶性)
  • [叉积 cross products](# 叉积 - cross-products)

    行列式

[wiki: Determinant ](https://zh.wikipedia.org/wiki/% E8% A1%8C% E5%88%97% E5% BC%8F)

![](https://s3.amazonaws.com/nemolaw/05-% E8% A1%8C% E5%88%97% E5% BC%8F.gif)

this very special scaling factor: the factor by which a linear transformation changes any area,is called the determinant of that transformation.

  • 这个特殊缩放比例,即线性变换改变面积的比例,被称为这个变换的行列式

  • 所以当我们谈到行列式的时候,要知道它是针对某个矩阵 (线性变换) 而言,当行列式为负,代表该变换发生 “invert the orientation of spcae” (像是把一张纸翻向了另一面 ).
    特殊的,变成 0 的时候意味着该变换,怎么说呢,一个 “降维” 变换 (我自定义的,使得原有的维度被压缩了)

  • 行列式为零的,该矩阵必然线性相关 (因为每一列都代表这 i,j,k 的去向,线性相关意味着变换结果被压缩成一条直线甚至一个点.)

思考题,为啥求 2x3 矩阵的行列值是没有意义的

想象一下,有一个 3x1 的向量,在这个 2x3 矩阵作用下 (线性变换) , 它的结果会是一个 2x1 的向量。维数下降了,determinant 代表着面积 (体积) 的伸缩比例。降维的结果自然是 0.

另一种解释: 2x3 两行三列,三列意味着一开始是三维的: i,j,k 每一列代表这 i,j,k 最终的去向。两列代表这最后的结果是一个平面。这时候体积自然是 0 .

矩阵的秩 rank

[wiki: rank](https://zh.wikipedia.org/wiki/% E7% A7% A9_(% E7% BA% BF% E6%80% A7% E4% BB% A3% E6%95% B0))

![](https://s3.amazonaws.com/nemolaw/06-% E7% A7% A9.gif)

determinant 只能描述变换是否被压缩到更低的维度,却不知道压缩后的具体维度。例如有些变换使得立体变成一个平面,有的甚至会变成一条直线. rank 就是来描述变换后向量占据的维度的.

逆矩阵

[wiki: inverse matrix ](https://zh.wikipedia.org/wiki/% E9%80%86% E7%9F% A9% E9%98% B5)

![](https://s3.amazonaws.com/nemolaw/06 - 逆矩阵.gif)

矩阵代表这一种线性变化 (空间变换), 那就有一种特殊的复原变换。即两个矩阵叠加变换后什么也没有发生.(transformation ,and then , transformation in reverse , like nothing happend)

逆矩阵的一种用途就是 求解 线性方程组 Linear system of equations.

在已知空间变换 (矩阵 A) 和变换后的向量 v, 求变换前的向量 x.

特别的,一个矩阵的逆矩阵要求 det 不能是 0. 因为 0 意味着变换是降维的。线性变换可以降维,却不能升维.

you can not “unsquish” a line to turn it into a space . at least , that’s not something that a function can do . that would require transforming each individual vector into a whole line full of vector,but functions can only take a single input to a single output.

你无法将一条直线 “解压缩” 成一个平面。至少不是 function 会有的功能。这样就会要求将一个单独的向量变换成一整条线的向量。但函数只能将一个输入变换成另一个输出

列空间与零空间,

[wiki: Column Space](https://zh.wikipedia.org/wiki/% E8% A1%8C% E7% A9% BA% E9%97% B4% E4% B8%8E% E5%88%97% E7% A9% BA% E9%97% B4)

[wiki: null space](https://zh.wikipedia.org/wiki/% E9%9B% B6% E7% A9% BA% E9%97% B4)

![](https://s3.amazonaws.com/nemolaw/06-% E5%88%97% E7% A9% BA% E9%97% B4% E4% B8%8E% E9%9B% B6% E7% A9% BA% E9%97% B4.gif)

列空间:矩阵 (空间线性变换) 作用于空间每一个向量后能得到的向量集合

Column space of A: Set of all possible outputs Ax = v,

零空间:特别的,某个向量 * x* 在矩阵 A (空间线性变换) 后,结果是原点.(当然,原点本身不管什么作用都是原点)
对应的线性方程组是,当 * v* 为零向量时,对应的 * x* 解.

null space : This set of vectors that lands on the origin , is called the “null spcae” or the “kernel” of your matrix. It’s the space of all vectors that become null , in the sense that they land on the zero vector.

特征向量与特征值

[wiki: eigenvector & eigenvalue ](https://zh.wikipedia.org/wiki/% E7%89% B9% E5% BE%81% E5%80% BC% E5%92%8C% E7%89% B9% E5% BE%81% E5%90%91% E9%87%8F)

![](https://s3.amazonaws.com/nemolaw/10-% E7%89% B9% E5% BE%81% E5%90%91% E9%87%8F% E4% B8%8E% E7%89% B9% E5% BE%81% E5%80% BC.gif)

矩阵的作用下,空间发现变化。我们会想,是否会存在一些向量,变化前后不变?
要是把条件放宽,线性变换前后只是沿着原来方向 (或者相反方向) 伸缩.

要是存在这样的向量,这个向量就叫做该变换的特征向量,伸缩的值为该特征向量的特征值.

其实要是把矩阵当成 function, 会更容易理解,那就是 f (x)=x; 通常的,f (x)= ℨx

当特征向量数量多到可以张成全空间,你就可以使用这些特征向量,让它们组成你新空间的基 (对应基变换)

点积与对偶性

[wiki: Dot Product](https://zh.wikipedia.org/wiki/% E7%82% B9% E7% A7% AF)

[wiki: 投影 ](https://zh.wikipedia.org/wiki/% E6%8A%95% E5% BD% B1)

[wiki: 对偶空间 ](https://zh.wikipedia.org/wiki/% E5% AF% B9% E5%81% B6% E7% A9% BA% E9%97% B4)

![](https://s3.amazonaws.com/nemolaw/07-% E7%82% B9% E7% A7% AF% E4% B8%8E% E5% AF% B9% E5%81% B6% E6%80% A7.gif)

![](https://s3.amazonaws.com/nemolaw/07-% E7%82% B9% E7% A7% AF% E4% B8%8E% E5% AF% B9% E5%81% B6% E6%80% A7.jpg)

点积看起来很简单,对应坐标相乘,结果相加.

深究上去,这样的运算对应几何上的意义是什么?答案是投影.

a fuller understanding of the role the dot products play in math can only really be found under the light of linear transformation.

这里我不打算继续用语言描述整个过程,可以通过视频去体验。我想抛出一个话题,这个应该发现带来的一种可能,本质上就是在说:一个非方阵,可以看作是一个方阵在数轴 (或者平面) 上的投影.

高维空间的存在对我们来说并不是不可见不可感知的,因为我们的存在本身,就是他们的投影!我不知道,这在文学上,科学上意味着什么,或许可以意味着很多

叉积 cross products

[wiki: Cross product ](https://zh.wikipedia.org/wiki/% E5%8F%89% E7% A7% AF)

![](https://s3.amazonaws.com/nemolaw/08p1-% E5%8F%89% E7% A7% AF% E7%9A%84% E6% A0%87% E5%87%86% E4% BB%8B% E7% BB%8D.gif)

两个向量的叉积也是一个向量,数值上为两个向量组成的面积 (或者 determinant), 方向垂直于两个向量 (右手法则确定方向)

欢迎用Dogecoin支持我不断记录