work hard, be persistent, and good luck

0%

线性代数的本质(笔记03)概念的解释

行列式

wiki: Determinant

this very special scaling factor: the factor by which a linear transformation changes any area,is called the determinant of that transformation.

  • 这个特殊缩放比例, 即线性变换改变面积的比例, 被称为这个变换的行列式

  • 所以当我们谈到行列式的时候,要知道它是针对某个矩阵(线性变换)而言,当行列式为负,代表该变换发生 “invert the orientation of spcae” (像是把一张纸翻向了另一面 ).
    特殊的,变成0 的时候意味着该变换,怎么说呢, 一个”降维”变换(我自定义的, 使得原有的维度被压缩了)

  • 行列式为零的, 该矩阵必然线性相关(因为每一列都代表这i,j,k 的去向, 线性相关意味着变换结果被压缩成一条直线甚至一个点.)

思考题, 为啥求2x3矩阵的行列值是没有意义的

想象一下, 有一个 3x1 的向量, 在这个2x3矩阵作用下(线性变换) ,它的结果会是一个 2x1 的向量. 维数下降了, determinant 代表着面积(体积)的伸缩比例.降维的结果自然是0.

另一种解释: 2x3 两行三列,三列意味着一开始是三维的: i,j,k 每一列代表这 i,j,k 最终的去向.两列代表这最后的结果是一个平面. 这时候体积自然是0 .

矩阵的秩 rank

wiki: rank

determinant 只能描述变换是否被压缩到更低的维度, 却不知道压缩后的具体维度.例如有些变换使得立体变成一个平面, 有的甚至会变成一条直线. rank 就是来描述变换后向量占据的维度的.

逆矩阵

wiki: inverse matrix

矩阵代表这一种线性变化(空间变换), 那就有一种特殊的复原变换.即两个矩阵叠加变换后什么也没有发生.(transformation ,and then , transformation in reverse , like nothing happend)

逆矩阵的一种用途就是 求解 线性方程组 Linear system of equations.

在已知空间变换(矩阵A) 和变换后的向量v, 求变换前的向量x.

特别的,一个矩阵的逆矩阵要求 det 不能是0. 因为0意味着变换是降维的.线性变换可以降维,却不能升维.

you can not “unsquish” a line to turn it into a space . at least , that’s not something that a function can do . that would require transforming each individual vector into a whole line full of vector,but functions can only take a single input to a single output.

你无法将一条直线”解压缩”成一个平面.至少不是function 会有的功能. 这样就会要求将一个单独的向量变换成一整条线的向量.但函数只能将一个输入变换成另一个输出

列空间与零空间 ,

wiki: Column Space

wiki: null space

列空间: 矩阵(空间线性变换)作用于空间每一个向量后能得到的向量集合

Column space of A: Set of all possible outputs Ax = v,

零空间: 特别的,某个向量x 在矩阵A(空间线性变换)后,结果是原点.(当然,原点本身不管什么作用都是原点)
对应的线性方程组是, 当v 为零向量时, 对应的x 解.

null space : This set of vectors that lands on the origin , is called the “null spcae” or the “kernel” of your matrix. It’s the space of all vectors that become null , in the sense that they land on the zero vector.

特征向量与特征值

wiki: eigenvector & eigenvalue

矩阵的作用下, 空间发现变化. 我们会想, 是否会存在一些向量, 变化前后不变?
要是把条件放宽, 线性变换前后只是沿着原来方向(或者相反方向)伸缩.

要是存在这样的向量, 这个向量就叫做该变换的特征向量, 伸缩的值为该特征向量的特征值.

其实要是把矩阵当成function, 会更容易理解,那就是 f(x)=x; 通常的,f(x)= ℨx

当特征向量数量多到可以张成全空间, 你就可以使用这些特征向量, 让它们组成你新空间的基(对应基变换)

点积与对偶性

wiki: Dot Product

wiki:投影

wiki: 对偶空间

点积看起来很简单,对应坐标相乘,结果相加.

深究上去,这样的运算对应几何上的意义是什么? 答案是投影.

a fuller understanding of the role the dot products play in math can only really be found under the light of linear transformation.

这里我不打算继续用语言描述整个过程,可以通过视频去体验. 我想抛出一个话题,这个应该发现带来的一种可能,本质上就是在说: 一个非方阵, 可以看作是一个方阵在数轴(或者平面)上的投影.

高维空间的存在对我们来说并不是不可见不可感知的,因为我们的存在本身,就是他们的投影! 我不知道,这在文学上,科学上意味着什么,或许可以意味着很多

叉积 cross products

wiki: Cross product

两个向量的叉积也是一个向量, 数值上为两个向量组成的面积(或者determinant),方向垂直于两个向量(右手法则确定方向)